TCIA: Eine aufgabenorientierte Instruktionserweiterungsmethode für das Instruktions-Finetuning
TCIA: A Task-Centric Instruction Augmentation Method for Instruction Finetuning
August 28, 2025
papers.authors: Simin Ma, Shujian Liu, Jun Tan, Yebowen Hu, Song Wang, Sathish Reddy Indurthi, Sanqiang Zhao, Liwei Wu, Jianbing Han, Kaiqiang Song
cs.AI
papers.abstract
Vielfältige Instruktionsdaten sind entscheidend für das effektive Instruction Tuning großer Sprachmodelle, da sie es dem Modell ermöglichen, über verschiedene Arten von Eingaben zu generalisieren. Der Aufbau eines solchen diversifizierten Instruktionsdatensatzes ist ein wesentlicher Schritt in diesem Prozess. Bestehende Ansätze nutzen oft große Sprachmodelle, um automatisch vielfältige Instruktionen zu erkunden und zu generieren, wodurch sowohl die Datenvielfalt als auch die Qualität sichergestellt werden. Allerdings übersehen sie dabei häufig einen wichtigen Faktor in realen Anwendungen: die Aufgabenrelevanz. In der Praxis benötigen nur wenige reale Anwendungen ein wirklich allgemeines Modell; die meisten profitieren von aufgabenspezifischem Wissen, das auf ihren speziellen Anwendungsfall zugeschnitten ist. Daher ist es entscheidend, Methoden zur Instruktionserweiterung zu entwickeln, die nicht nur die Vielfalt bewahren, sondern auch für spezifische, reale Szenarien optimiert sind.
Wir stellen daher Task Centric Instruction Augmentation (TCIA) vor, ein Framework, das Instruktionen systematisch erweitert und dabei sowohl die Vielfalt als auch die Aufgabenausrichtung bewahrt. Indem Instruktionen in einem diskreten Abfrage-Einschränkungs-Raum dargestellt werden, erzeugt TCIA eine umfangreiche Menge von aufgabenrelevanten Instruktionen und ermöglicht es Modellen, auf diese aufgabenspezifischen Instruktionen zu generalisieren, ohne die Gesamtleistung zu beeinträchtigen. Experimente zeigen, dass TCIA die Leistung von Open-Source-LLMs in vier realen, aufgabenspezifischen Anwendungen im Durchschnitt um 8,7 % verbessert und in einigen Fällen führende Closed-Source-Modelle übertrifft. Diese Verbesserungen gehen nicht zulasten der allgemeinen Fähigkeit, Instruktionen zu befolgen, was TCIA zu einer skalierbaren und effizienten Lösung für die Anpassung von LLMs an reale, aufgabenfokussierte Anwendungen macht.
English
Diverse instruction data is vital for effective instruction tuning of large
language models, as it enables the model to generalize across different types
of inputs . Building such diversified instruction dataset is an essential step
in this process. Existing approaches often leverage large language models to
automatically explore and generate diverse instructions, ensuring both data
diversity and quality. However, they tend to overlook an important factor in
real-world applications: on-task relevance. In practice, only a few real-world
applications require a truly general-purpose model; most benefit from
task-specific knowledge tailored to their particular use case. Therefore, it is
vital to develop instruction augmentation methods that not only maintain
diversity but are also optimized for specific, real-world scenarios.
We thus introduce Task Centric Instruction Augmentation (TCIA), a framework
that systematically expands instructions while preserving both diversity and
task alignment. By representing instructions in a discrete query-constraints
space, TCIA creates a rich set of task-relevant instructions and enables models
to generalize to these task-specific instructions without sacrificing overall
performance. Experiments show that TCIA improves open-source LLMs' performance
by an average of 8.7% across four real-world, task-specific applications, and
in some cases outperforming leading closed-source models. These improvements do
not compromise general instruction-following ability, making TCIA a scalable
and efficient solution for adapting LLMs to real-world, task-focused
applications.