ChatPaper.aiChatPaper

WaveCoder: Wijdverspreide en veelzijdige verbeterde instructieafstemming met verfijnde datageneratie

WaveCoder: Widespread And Versatile Enhanced Instruction Tuning with Refined Data Generation

December 20, 2023
Auteurs: Zhaojian Yu, Xin Zhang, Ning Shang, Yangyu Huang, Can Xu, Yishujie Zhao, Wenxiang Hu, Qiufeng Yin
cs.AI

Samenvatting

Recent werk toont aan dat een model, na het finetunen op een hoogwaardige instructiedataset, indrukwekkende capaciteiten kan verkrijgen om een breed scala aan taken aan te pakken. Bestaande methoden voor het genereren van instructiedata produceren echter vaak dubbele data en zijn niet voldoende controleerbaar wat betreft de datakwaliteit. In dit artikel breiden we de generalisatie van instructietuning uit door de instructiedata te classificeren in 4 code-gerelateerde taken en stellen we een LLM-gebaseerd Generator-Discriminator dataverwerkingsframework voor om diverse, hoogwaardige instructiedata te genereren uit open source code. Hierbij introduceren we CodeOcean, een dataset bestaande uit 20.000 instructie-instanties over 4 universele code-gerelateerde taken, die gericht is op het vergroten van de effectiviteit van instructietuning en het verbeteren van de generalisatiecapaciteit van het gefinetunede model. Vervolgens presenteren we WaveCoder, een gefinetuned Code LLM met Widespread And Versatile Enhanced instructietuning. Dit model is specifiek ontworpen om de instructietuning van Code Language Models (LLMs) te verbeteren. Onze experimenten tonen aan dat Wavecoder-modellen andere open-source modellen overtreffen wat betreft generalisatievermogen over verschillende code-gerelateerde taken op hetzelfde niveau van finetuningschaal. Bovendien toont Wavecoder een hoge efficiëntie in eerdere codegeneratietaken. Dit artikel levert zo een belangrijke bijdrage aan het veld van instructiedatageneratie en finetunemodellen, en biedt nieuwe inzichten en tools voor het verbeteren van prestaties in code-gerelateerde taken.
English
Recent work demonstrates that, after being fine-tuned on a high-quality instruction dataset, the resulting model can obtain impressive capabilities to address a wide range of tasks. However, existing methods for instruction data generation often produce duplicate data and are not controllable enough on data quality. In this paper, we extend the generalization of instruction tuning by classifying the instruction data to 4 code-related tasks and propose a LLM-based Generator-Discriminator data process framework to generate diverse, high-quality instruction data from open source code. Hence, we introduce CodeOcean, a dataset comprising 20,000 instruction instances across 4 universal code-related tasks,which is aimed at augmenting the effectiveness of instruction tuning and improving the generalization ability of fine-tuned model. Subsequently, we present WaveCoder, a fine-tuned Code LLM with Widespread And Versatile Enhanced instruction tuning. This model is specifically designed for enhancing instruction tuning of Code Language Models (LLMs). Our experiments demonstrate that Wavecoder models outperform other open-source models in terms of generalization ability across different code-related tasks at the same level of fine-tuning scale. Moreover, Wavecoder exhibits high efficiency in previous code generation tasks. This paper thus offers a significant contribution to the field of instruction data generation and fine-tuning models, providing new insights and tools for enhancing performance in code-related tasks.
PDF495February 8, 2026