ChatPaper.aiChatPaper

Исследование согласованности форматов для настройки инструкций

Exploring Format Consistency for Instruction Tuning

July 28, 2023
Авторы: Shihao Liang, Kunlun Zhu, Runchu Tian, Yujia Qin, Huadong Wang, Xin Cong, Zhiyuan Liu, Xiaojiang Liu, Maosong Sun
cs.AI

Аннотация

Настройка на инструкции стала перспективным подходом для улучшения крупных языковых моделей в следовании человеческим инструкциям. Показано, что увеличение разнообразия и количества инструкций в обучающих данных может последовательно улучшать обобщающую способность, что способствует недавним усилиям по сбору различных инструкций и объединению существующих наборов данных для настройки на инструкции в более крупные коллекции. Однако разные пользователи имеют свои уникальные способы формулирования инструкций, и часто существуют различия в стилях и форматах инструкций между различными наборами данных, то есть несогласованность форматов. В данной работе мы исследуем, как несогласованность форматов может влиять на производительность настройки на инструкции. Мы предлагаем фреймворк под названием "Унифицированная настройка на инструкции" (Unified Instruction Tuning, UIT), который использует API OpenAI для автоматического преобразования форматов между различными наборами данных для настройки на инструкции. Мы показываем, что UIT успешно улучшает обобщающую способность на невидимых инструкциях, что подчеркивает важность согласованности форматов для настройки на инструкции. Чтобы сделать фреймворк UIT более практичным, мы также предлагаем новый метод удаления шума на основе перплексии для снижения уровня шума при автоматическом преобразовании форматов. Кроме того, мы обучаем меньшую автономную модель, которая достигает сопоставимой способности преобразования форматов с API OpenAI, чтобы снизить затраты на практике.
English
Instruction tuning has emerged as a promising approach to enhancing large language models in following human instructions. It is shown that increasing the diversity and number of instructions in the training data can consistently enhance generalization performance, which facilitates a recent endeavor to collect various instructions and integrate existing instruction tuning datasets into larger collections. However, different users have their unique ways of expressing instructions, and there often exist variations across different datasets in the instruction styles and formats, i.e., format inconsistency. In this work, we study how format inconsistency may impact the performance of instruction tuning. We propose a framework called "Unified Instruction Tuning" (UIT), which calls OpenAI APIs for automatic format transfer among different instruction tuning datasets. We show that UIT successfully improves the generalization performance on unseen instructions, which highlights the importance of format consistency for instruction tuning. To make the UIT framework more practical, we further propose a novel perplexity-based denoising method to reduce the noise of automatic format transfer. We also train a smaller offline model that achieves comparable format transfer capability than OpenAI APIs to reduce costs in practice.
PDF80December 15, 2024