TCIA: 命令ファインチューニングのためのタスク中心型命令拡張手法
TCIA: A Task-Centric Instruction Augmentation Method for Instruction Finetuning
August 28, 2025
著者: Simin Ma, Shujian Liu, Jun Tan, Yebowen Hu, Song Wang, Sathish Reddy Indurthi, Sanqiang Zhao, Liwei Wu, Jianbing Han, Kaiqiang Song
cs.AI
要旨
多様な指示データは、大規模言語モデルの効果的な指示チューニングにおいて極めて重要です。なぜなら、モデルが異なるタイプの入力に対して一般化することを可能にするからです。このプロセスにおいて、多様化された指示データセットを構築することは不可欠なステップです。既存のアプローチでは、大規模言語モデルを活用して多様な指示を自動的に探索・生成し、データの多様性と品質を確保することが一般的です。しかし、これらのアプローチは現実世界のアプリケーションにおける重要な要素、すなわち「タスク関連性」を見落としがちです。実際には、真に汎用的なモデルを必要とする現実世界のアプリケーションはごく一部であり、ほとんどの場合、特定のユースケースに特化したタスク固有の知識が有益です。したがって、多様性を維持しつつ、特定の現実世界のシナリオに最適化された指示拡張手法を開発することが重要です。
そこで我々は、**タスク中心指示拡張(Task Centric Instruction Augmentation, TCIA)**というフレームワークを提案します。TCIAは、多様性とタスク整合性の両方を維持しながら、指示を体系的に拡張します。指示を離散的なクエリ制約空間で表現することで、TCIAはタスクに関連する豊富な指示セットを生成し、モデルが全体的な性能を犠牲にすることなく、これらのタスク固有の指示に一般化することを可能にします。実験結果によると、TCIAはオープンソースの大規模言語モデルの性能を、4つの現実世界のタスク特化型アプリケーションにおいて平均8.7%向上させ、場合によっては主要なクローズドソースモデルを上回ることも示されました。これらの改善は、一般的な指示追従能力を損なうことなく達成されており、TCIAは大規模言語モデルを現実世界のタスク指向アプリケーションに適応させるためのスケーラブルで効率的なソリューションとなっています。
English
Diverse instruction data is vital for effective instruction tuning of large
language models, as it enables the model to generalize across different types
of inputs . Building such diversified instruction dataset is an essential step
in this process. Existing approaches often leverage large language models to
automatically explore and generate diverse instructions, ensuring both data
diversity and quality. However, they tend to overlook an important factor in
real-world applications: on-task relevance. In practice, only a few real-world
applications require a truly general-purpose model; most benefit from
task-specific knowledge tailored to their particular use case. Therefore, it is
vital to develop instruction augmentation methods that not only maintain
diversity but are also optimized for specific, real-world scenarios.
We thus introduce Task Centric Instruction Augmentation (TCIA), a framework
that systematically expands instructions while preserving both diversity and
task alignment. By representing instructions in a discrete query-constraints
space, TCIA creates a rich set of task-relevant instructions and enables models
to generalize to these task-specific instructions without sacrificing overall
performance. Experiments show that TCIA improves open-source LLMs' performance
by an average of 8.7% across four real-world, task-specific applications, and
in some cases outperforming leading closed-source models. These improvements do
not compromise general instruction-following ability, making TCIA a scalable
and efficient solution for adapting LLMs to real-world, task-focused
applications.