ChatPaper.aiChatPaper

TCIA: Un Metodo di Aumentazione delle Istruzioni Centrato sul Compito per il Fine-Tuning delle Istruzioni

TCIA: A Task-Centric Instruction Augmentation Method for Instruction Finetuning

August 28, 2025
Autori: Simin Ma, Shujian Liu, Jun Tan, Yebowen Hu, Song Wang, Sathish Reddy Indurthi, Sanqiang Zhao, Liwei Wu, Jianbing Han, Kaiqiang Song
cs.AI

Abstract

I dati di istruzione diversificati sono fondamentali per un efficace tuning delle istruzioni nei grandi modelli linguistici, poiché consentono al modello di generalizzare su diversi tipi di input. Costruire un dataset di istruzioni così diversificato è un passo essenziale in questo processo. Gli approcci esistenti spesso sfruttano grandi modelli linguistici per esplorare e generare automaticamente istruzioni diversificate, garantendo sia la diversità che la qualità dei dati. Tuttavia, tendono a trascurare un fattore importante nelle applicazioni reali: la rilevanza rispetto al compito. Nella pratica, solo poche applicazioni reali richiedono un modello veramente generico; la maggior parte trae vantaggio da conoscenze specifiche per il compito, adattate al loro caso d'uso particolare. Pertanto, è fondamentale sviluppare metodi di ampliamento delle istruzioni che non solo mantengano la diversità, ma siano anche ottimizzati per scenari reali specifici. Introduciamo quindi il Task Centric Instruction Augmentation (TCIA), un framework che espande sistematicamente le istruzioni preservando sia la diversità che l'allineamento al compito. Rappresentando le istruzioni in uno spazio discreto di query-vincoli, il TCIA crea un ricco insieme di istruzioni rilevanti per il compito e consente ai modelli di generalizzare su queste istruzioni specifiche senza compromettere le prestazioni complessive. Gli esperimenti dimostrano che il TCIA migliora le prestazioni dei modelli linguistici open-source in media dell'8,7% su quattro applicazioni reali specifiche per il compito, superando in alcuni casi i principali modelli closed-source. Questi miglioramenti non compromettono la capacità generale di seguire le istruzioni, rendendo il TCIA una soluzione scalabile ed efficiente per adattare i modelli linguistici a applicazioni reali focalizzate su compiti specifici.
English
Diverse instruction data is vital for effective instruction tuning of large language models, as it enables the model to generalize across different types of inputs . Building such diversified instruction dataset is an essential step in this process. Existing approaches often leverage large language models to automatically explore and generate diverse instructions, ensuring both data diversity and quality. However, they tend to overlook an important factor in real-world applications: on-task relevance. In practice, only a few real-world applications require a truly general-purpose model; most benefit from task-specific knowledge tailored to their particular use case. Therefore, it is vital to develop instruction augmentation methods that not only maintain diversity but are also optimized for specific, real-world scenarios. We thus introduce Task Centric Instruction Augmentation (TCIA), a framework that systematically expands instructions while preserving both diversity and task alignment. By representing instructions in a discrete query-constraints space, TCIA creates a rich set of task-relevant instructions and enables models to generalize to these task-specific instructions without sacrificing overall performance. Experiments show that TCIA improves open-source LLMs' performance by an average of 8.7% across four real-world, task-specific applications, and in some cases outperforming leading closed-source models. These improvements do not compromise general instruction-following ability, making TCIA a scalable and efficient solution for adapting LLMs to real-world, task-focused applications.
PDF213August 29, 2025