TCIA : Une Méthode d'Augmentation d'Instructions Centrée sur la Tâche pour le Fine-Tuning d'Instructions
TCIA: A Task-Centric Instruction Augmentation Method for Instruction Finetuning
August 28, 2025
papers.authors: Simin Ma, Shujian Liu, Jun Tan, Yebowen Hu, Song Wang, Sathish Reddy Indurthi, Sanqiang Zhao, Liwei Wu, Jianbing Han, Kaiqiang Song
cs.AI
papers.abstract
Des données d'instruction diversifiées sont essentielles pour un réglage efficace des grands modèles de langage, car elles permettent au modèle de généraliser à différents types d'entrées. La construction d'un tel ensemble de données d'instruction diversifié constitue une étape cruciale dans ce processus. Les approches existantes exploitent souvent de grands modèles de langage pour explorer et générer automatiquement des instructions variées, garantissant ainsi à la fois la diversité et la qualité des données. Cependant, elles ont tendance à négliger un facteur important dans les applications réelles : la pertinence par rapport à la tâche. En pratique, seules quelques applications réelles nécessitent un modèle véritablement polyvalent ; la plupart bénéficient de connaissances spécifiques à la tâche, adaptées à leur cas d'utilisation particulier. Par conséquent, il est essentiel de développer des méthodes d'augmentation d'instructions qui non seulement maintiennent la diversité, mais sont également optimisées pour des scénarios réels spécifiques.
Nous introduisons donc l'**Augmentation d'Instructions Centrée sur la Tâche (Task Centric Instruction Augmentation, TCIA)**, un cadre qui étend systématiquement les instructions tout en préservant à la fois la diversité et l'alignement sur la tâche. En représentant les instructions dans un espace discret de requêtes-contraintes, TCIA crée un ensemble riche d'instructions pertinentes pour la tâche et permet aux modèles de généraliser à ces instructions spécifiques sans sacrifier les performances globales. Les expériences montrent que TCIA améliore les performances des modèles de langage open source de 8,7 % en moyenne sur quatre applications réelles spécifiques à une tâche, surpassant dans certains cas les modèles propriétaires leaders. Ces améliorations ne compromettent pas la capacité générale à suivre des instructions, faisant de TCIA une solution évolutive et efficace pour adapter les grands modèles de langage à des applications réelles centrées sur des tâches spécifiques.
English
Diverse instruction data is vital for effective instruction tuning of large
language models, as it enables the model to generalize across different types
of inputs . Building such diversified instruction dataset is an essential step
in this process. Existing approaches often leverage large language models to
automatically explore and generate diverse instructions, ensuring both data
diversity and quality. However, they tend to overlook an important factor in
real-world applications: on-task relevance. In practice, only a few real-world
applications require a truly general-purpose model; most benefit from
task-specific knowledge tailored to their particular use case. Therefore, it is
vital to develop instruction augmentation methods that not only maintain
diversity but are also optimized for specific, real-world scenarios.
We thus introduce Task Centric Instruction Augmentation (TCIA), a framework
that systematically expands instructions while preserving both diversity and
task alignment. By representing instructions in a discrete query-constraints
space, TCIA creates a rich set of task-relevant instructions and enables models
to generalize to these task-specific instructions without sacrificing overall
performance. Experiments show that TCIA improves open-source LLMs' performance
by an average of 8.7% across four real-world, task-specific applications, and
in some cases outperforming leading closed-source models. These improvements do
not compromise general instruction-following ability, making TCIA a scalable
and efficient solution for adapting LLMs to real-world, task-focused
applications.