ChatPaper.aiChatPaper

Ajuste fino en instrucciones ruidosas: efectos en la generalización y el rendimiento

Fine-Tuning on Noisy Instructions: Effects on Generalization and Performance

October 3, 2025
Autores: Ahmed Alajrami, Xingwei Tan, Nikolaos Aletras
cs.AI

Resumen

El ajuste por instrucciones desempeña un papel crucial en la mejora de las capacidades de resolución de tareas de los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés), incrementando su utilidad para generar respuestas útiles en diversas tareas. Sin embargo, trabajos previos han demostrado que estos modelos son sensibles a variaciones menores en la redacción de las instrucciones. En este artículo, exploramos si la introducción de perturbaciones en los datos de ajuste por instrucciones puede mejorar la resistencia de los LLMs frente a instrucciones ruidosas. Nos enfocamos en cómo el ajuste por instrucciones con perturbaciones, como la eliminación de palabras de parada o la reorganización de palabras, afecta el rendimiento de los LLMs en versiones originales y perturbadas de puntos de referencia ampliamente utilizados (MMLU, BBH, GSM8K). Además, evaluamos las dinámicas de aprendizaje y posibles cambios en el comportamiento del modelo. Sorprendentemente, nuestros resultados sugieren que el ajuste por instrucciones con instrucciones perturbadas puede, en algunos casos, mejorar el rendimiento en tareas posteriores. Estos hallazgos resaltan la importancia de incluir instrucciones perturbadas en el ajuste por instrucciones, lo que puede hacer que los LLMs sean más resistentes a entradas de usuario ruidosas.
English
Instruction-tuning plays a vital role in enhancing the task-solving abilities of large language models (LLMs), improving their usability in generating helpful responses on various tasks. However, previous work has demonstrated that they are sensitive to minor variations in instruction phrasing. In this paper, we explore whether introducing perturbations in instruction-tuning data can enhance LLMs' resistance against noisy instructions. We focus on how instruction-tuning with perturbations, such as removing stop words or shuffling words, affects LLMs' performance on the original and perturbed versions of widely-used benchmarks (MMLU, BBH, GSM8K). We further assess learning dynamics and potential shifts in model behavior. Surprisingly, our results suggest that instruction-tuning on perturbed instructions can, in some cases, improve downstream performance. These findings highlight the importance of including perturbed instructions in instruction-tuning, which can make LLMs more resilient to noisy user inputs.
PDF152October 7, 2025