ChatPaper.aiChatPaper

Fine-Tuning su Istruzioni Rumoreggiate: Effetti sulla Generalizzazione e sulle Prestazioni

Fine-Tuning on Noisy Instructions: Effects on Generalization and Performance

October 3, 2025
Autori: Ahmed Alajrami, Xingwei Tan, Nikolaos Aletras
cs.AI

Abstract

L'instruction-tuning svolge un ruolo cruciale nel potenziare le capacità di risoluzione dei compiti dei grandi modelli linguistici (LLMs), migliorando la loro usabilità nella generazione di risposte utili per vari task. Tuttavia, lavori precedenti hanno dimostrato che questi modelli sono sensibili a piccole variazioni nella formulazione delle istruzioni. In questo articolo, esploriamo se l'introduzione di perturbazioni nei dati di instruction-tuning possa aumentare la resistenza degli LLMs a istruzioni rumorose. Ci concentriamo su come l'instruction-tuning con perturbazioni, come la rimozione di parole di stop o il rimescolamento delle parole, influisca sulle prestazioni degli LLMs nelle versioni originali e perturbate di benchmark ampiamente utilizzati (MMLU, BBH, GSM8K). Valutiamo inoltre le dinamiche di apprendimento e i potenziali cambiamenti nel comportamento del modello. Sorprendentemente, i nostri risultati suggeriscono che l'instruction-tuning su istruzioni perturbate può, in alcuni casi, migliorare le prestazioni downstream. Questi risultati evidenziano l'importanza di includere istruzioni perturbate nell'instruction-tuning, rendendo gli LLMs più resilienti agli input rumorosi degli utenti.
English
Instruction-tuning plays a vital role in enhancing the task-solving abilities of large language models (LLMs), improving their usability in generating helpful responses on various tasks. However, previous work has demonstrated that they are sensitive to minor variations in instruction phrasing. In this paper, we explore whether introducing perturbations in instruction-tuning data can enhance LLMs' resistance against noisy instructions. We focus on how instruction-tuning with perturbations, such as removing stop words or shuffling words, affects LLMs' performance on the original and perturbed versions of widely-used benchmarks (MMLU, BBH, GSM8K). We further assess learning dynamics and potential shifts in model behavior. Surprisingly, our results suggest that instruction-tuning on perturbed instructions can, in some cases, improve downstream performance. These findings highlight the importance of including perturbed instructions in instruction-tuning, which can make LLMs more resilient to noisy user inputs.
PDF162October 7, 2025