ChatPaper.aiChatPaper

WaveCoder: Umfassendes und vielseitiges verbessertes Instruction Tuning mit verfeinerter Datengenerierung

WaveCoder: Widespread And Versatile Enhanced Instruction Tuning with Refined Data Generation

December 20, 2023
Autoren: Zhaojian Yu, Xin Zhang, Ning Shang, Yangyu Huang, Can Xu, Yishujie Zhao, Wenxiang Hu, Qiufeng Yin
cs.AI

Zusammenfassung

Aktuelle Arbeiten zeigen, dass ein Modell, das auf einem hochwertigen Instruktionsdatensatz feinabgestimmt wurde, beeindruckende Fähigkeiten erlangen kann, um eine Vielzahl von Aufgaben zu bewältigen. Allerdings erzeugen bestehende Methoden zur Generierung von Instruktionsdaten oft doppelte Daten und bieten nicht ausreichend Kontrolle über die Datenqualität. In diesem Artikel erweitern wir die Generalisierung des Instruktions-Tunings, indem wir die Instruktionsdaten in vier codebezogene Aufgaben klassifizieren und ein LLM-basiertes Generator-Discriminator-Datenverarbeitungsframework vorschlagen, um vielfältige, hochwertige Instruktionsdaten aus Open-Source-Code zu generieren. Daher führen wir CodeOcean ein, einen Datensatz, der 20.000 Instruktionsinstanzen über vier universelle codebezogene Aufgaben umfasst und darauf abzielt, die Effektivität des Instruktions-Tunings zu steigern sowie die Generalisierungsfähigkeit des feinabgestimmten Modells zu verbessern. Anschließend präsentieren wir WaveCoder, ein feinabgestimmtes Code-LLM mit weitreichendem und vielseitig verbessertem Instruktions-Tuning. Dieses Modell ist speziell für die Verbesserung des Instruktions-Tunings von Code Language Models (LLMs) konzipiert. Unsere Experimente zeigen, dass WaveCoder-Modelle andere Open-Source-Modelle in Bezug auf die Generalisierungsfähigkeit über verschiedene codebezogene Aufgaben auf demselben Feinabstimmungsniveau übertreffen. Darüber hinaus weist WaveCoder eine hohe Effizienz in früheren Code-Generierungsaufgaben auf. Dieser Artikel leistet somit einen bedeutenden Beitrag zum Bereich der Instruktionsdatengenerierung und des Feinabstimmens von Modellen, indem er neue Erkenntnisse und Werkzeuge zur Leistungssteigerung in codebezogenen Aufgaben bereitstellt.
English
Recent work demonstrates that, after being fine-tuned on a high-quality instruction dataset, the resulting model can obtain impressive capabilities to address a wide range of tasks. However, existing methods for instruction data generation often produce duplicate data and are not controllable enough on data quality. In this paper, we extend the generalization of instruction tuning by classifying the instruction data to 4 code-related tasks and propose a LLM-based Generator-Discriminator data process framework to generate diverse, high-quality instruction data from open source code. Hence, we introduce CodeOcean, a dataset comprising 20,000 instruction instances across 4 universal code-related tasks,which is aimed at augmenting the effectiveness of instruction tuning and improving the generalization ability of fine-tuned model. Subsequently, we present WaveCoder, a fine-tuned Code LLM with Widespread And Versatile Enhanced instruction tuning. This model is specifically designed for enhancing instruction tuning of Code Language Models (LLMs). Our experiments demonstrate that Wavecoder models outperform other open-source models in terms of generalization ability across different code-related tasks at the same level of fine-tuning scale. Moreover, Wavecoder exhibits high efficiency in previous code generation tasks. This paper thus offers a significant contribution to the field of instruction data generation and fine-tuning models, providing new insights and tools for enhancing performance in code-related tasks.
PDF525December 15, 2024