ChatPaper.aiChatPaper

Amélioration des modèles de langage conversationnel par la mise à l'échelle de conversations pédagogiques de haute qualité

Enhancing Chat Language Models by Scaling High-quality Instructional Conversations

May 23, 2023
Auteurs: Ning Ding, Yulin Chen, Bokai Xu, Yujia Qin, Zhi Zheng, Shengding Hu, Zhiyuan Liu, Maosong Sun, Bowen Zhou
cs.AI

Résumé

Le fine-tuning sur des données d'instructions a été largement validé comme une pratique efficace pour la mise en œuvre de modèles de langage conversationnels tels que ChatGPT. L'augmentation de la diversité et de la qualité de ces données, bien que simple, offre une grande probabilité d'améliorer les performances. Cet article vise à repousser encore plus loin les limites des modèles open-source. Nous présentons d'abord un ensemble de données systématiquement conçu, diversifié, informatif et à grande échelle de conversations instructives, UltraChat, qui ne repose pas sur des requêtes humaines. Notre objectif est de capturer l'étendue des interactions qu'un humain pourrait avoir avec un assistant IA, en utilisant un cadre complet pour générer itérativement des conversations multi-tours. UltraChat contient 1,5 million de dialogues multi-tours de haute qualité et couvre un large éventail de sujets et d'instructions. Notre analyse statistique d'UltraChat révèle sa supériorité dans diverses métriques clés, notamment l'échelle, la longueur moyenne, la diversité, la cohérence, etc., consolidant sa position comme un ensemble de données open-source de premier plan. En nous appuyant sur UltraChat, nous effectuons un fine-tuning d'un modèle LLaMA pour créer un modèle conversationnel puissant, UltraLLaMA. Nos évaluations indiquent qu'UltraLLaMA surpasse systématiquement d'autres modèles open-source, y compris Vicuna, précédemment reconnu comme le modèle open-source de pointe. Le jeu de données et le modèle seront rendus publics à l'adresse \url{https://github.com/thunlp/UltraChat}.
English
Fine-tuning on instruction data has been widely validated as an effective practice for implementing chat language models like ChatGPT. Scaling the diversity and quality of such data, although straightforward, stands a great chance of leading to improved performance. This paper aims to improve the upper bound of open-source models further. We first provide a systematically designed, diverse, informative, large-scale dataset of instructional conversations, UltraChat, which does not involve human queries. Our objective is to capture the breadth of interactions that a human might have with an AI assistant and employs a comprehensive framework to generate multi-turn conversation iteratively. UltraChat contains 1.5 million high-quality multi-turn dialogues and covers a wide range of topics and instructions. Our statistical analysis of UltraChat reveals its superiority in various key metrics, including scale, average length, diversity, coherence, etc., solidifying its position as a leading open-source dataset. Building upon UltraChat, we fine-tune a LLaMA model to create a powerful conversational model, UltraLLaMA. Our evaluations indicate that UltraLLaMA consistently outperforms other open-source models, including Vicuna, the previously recognized state-of-the-art open-source model. The dataset and the model will be publicly released\url{https://github.com/thunlp/UltraChat}.
PDF64December 15, 2024