Auto-Instruct: ブラックボックス言語モデルのための自動命令生成とランキング
Auto-Instruct: Automatic Instruction Generation and Ranking for Black-Box Language Models
October 19, 2023
著者: Zhihan Zhang, Shuohang Wang, Wenhao Yu, Yichong Xu, Dan Iter, Qingkai Zeng, Yang Liu, Chenguang Zhu, Meng Jiang
cs.AI
要旨
大規模言語モデル(LLM)は、タスク固有のファインチューニングを必要とせず、自然言語の指示に従うことで幅広いタスクを実行できます。しかし、LLMの性能はこれらの指示の質に大きく影響され、各タスクに対して効果的な指示を手動で作成するのは労力を要し、主観的なプロセスです。本論文では、LLMに提供される指示の質を自動的に向上させる新しい手法であるAuto-Instructを紹介します。この手法は、LLMの持つ生成能力を活用して、与えられたタスクに対して多様な候補指示を生成し、575の既存のNLPタスクで訓練されたスコアリングモデルを用いてそれらをランク付けします。118のドメイン外タスクでの実験において、Auto-Instructは人間が作成した指示や既存のLLM生成指示のベースラインを上回りました。さらに、この手法は、訓練プロセスに組み込まれていない他のLLMに対しても顕著な汎化性能を示します。
English
Large language models (LLMs) can perform a wide range of tasks by following
natural language instructions, without the necessity of task-specific
fine-tuning. Unfortunately, the performance of LLMs is greatly influenced by
the quality of these instructions, and manually writing effective instructions
for each task is a laborious and subjective process. In this paper, we
introduce Auto-Instruct, a novel method to automatically improve the quality of
instructions provided to LLMs. Our method leverages the inherent generative
ability of LLMs to produce diverse candidate instructions for a given task, and
then ranks them using a scoring model trained on a variety of 575 existing NLP
tasks. In experiments on 118 out-of-domain tasks, Auto-Instruct surpasses both
human-written instructions and existing baselines of LLM-generated
instructions. Furthermore, our method exhibits notable generalizability even
with other LLMs that are not incorporated into its training process.