ChatPaper.aiChatPaper

Fine-tuning op ruisachtige instructies: Effecten op generalisatie en prestaties

Fine-Tuning on Noisy Instructions: Effects on Generalization and Performance

October 3, 2025
Auteurs: Ahmed Alajrami, Xingwei Tan, Nikolaos Aletras
cs.AI

Samenvatting

Instruction-tuning speelt een cruciale rol bij het verbeteren van de taakoplossende vaardigheden van grote taalmodellen (LLM's), waardoor hun bruikbaarheid toeneemt bij het genereren van nuttige reacties op diverse taken. Eerder onderzoek heeft echter aangetoond dat ze gevoelig zijn voor kleine variaties in de formulering van instructies. In dit artikel onderzoeken we of het introduceren van verstoringen in instruction-tuning data de weerstand van LLM's tegen onduidelijke instructies kan vergroten. We richten ons op hoe instruction-tuning met verstoringen, zoals het verwijderen van stopwoorden of het door elkaar husselen van woorden, de prestaties van LLM's beïnvloedt op de originele en verstoorde versies van veelgebruikte benchmarks (MMLU, BBH, GSM8K). We beoordelen verder de leer dynamiek en mogelijke verschuivingen in modelgedrag. Verrassend genoeg suggereren onze resultaten dat instruction-tuning op verstoorde instructies in sommige gevallen de prestaties op downstream taken kan verbeteren. Deze bevindingen benadrukken het belang van het opnemen van verstoorde instructies in instruction-tuning, wat LLM's veerkrachtiger kan maken tegen onduidelijke gebruikersinvoer.
English
Instruction-tuning plays a vital role in enhancing the task-solving abilities of large language models (LLMs), improving their usability in generating helpful responses on various tasks. However, previous work has demonstrated that they are sensitive to minor variations in instruction phrasing. In this paper, we explore whether introducing perturbations in instruction-tuning data can enhance LLMs' resistance against noisy instructions. We focus on how instruction-tuning with perturbations, such as removing stop words or shuffling words, affects LLMs' performance on the original and perturbed versions of widely-used benchmarks (MMLU, BBH, GSM8K). We further assess learning dynamics and potential shifts in model behavior. Surprisingly, our results suggest that instruction-tuning on perturbed instructions can, in some cases, improve downstream performance. These findings highlight the importance of including perturbed instructions in instruction-tuning, which can make LLMs more resilient to noisy user inputs.
PDF162October 7, 2025