ChatPaper.aiChatPaper

Ajuste Fino Feito Corretamente na Edição de Modelos

Fine-tuning Done Right in Model Editing

September 26, 2025
Autores: Wanli Yang, Fei Sun, Rui Tang, Hongyu Zang, Du Su, Qi Cao, Jingang Wang, Huawei Shen, Xueqi Cheng
cs.AI

Resumo

O fine-tuning, um método fundamental para adaptar grandes modelos de linguagem, há muito tempo é considerado ineficaz para a edição de modelos. Aqui, desafiamos essa crença, argumentando que o fracasso relatado não surge de uma limitação inerente ao próprio fine-tuning, mas da adaptação dele à natureza sequencial da tarefa de edição, um pipeline de aprofundamento único que otimiza cada amostra até a convergência antes de prosseguir. Embora intuitivo, esse pipeline de aprofundamento, combinado com atualizações por amostra, superotimiza cada edição e induz interferência entre as edições. Nossos experimentos controlados revelam que simplesmente restaurar o fine-tuning ao pipeline padrão de ampliação (ou seja, baseado em épocas) com otimização em mini-lotes melhora substancialmente sua eficácia para a edição de modelos. Além disso, o fine-tuning na edição também sofre com locais de parâmetros de ajuste subótimos herdados de métodos anteriores. Por meio de uma análise sistemática dos locais de ajuste, derivamos o LocFT-BF, um método de edição localizado simples e eficaz construído sobre o framework de fine-tuning restaurado. Experimentos extensos em diversos LLMs e conjuntos de dados demonstram que o LocFT-BF supera os métodos state-of-the-art por grandes margens. Notavelmente, até onde sabemos, é o primeiro a sustentar 100 mil edições e modelos com 72 bilhões de parâmetros, 10 vezes além da prática anterior, sem sacrificar capacidades gerais. Ao esclarecer um equívoco de longa data e introduzir uma estratégia de ajuste localizado fundamentada, elevamos o fine-tuning de uma linha de base subestimada a um método líder para edição de modelos, estabelecendo uma base sólida para pesquisas futuras.
English
Fine-tuning, a foundational method for adapting large language models, has long been considered ineffective for model editing. Here, we challenge this belief, arguing that the reported failure arises not from the inherent limitation of fine-tuning itself, but from adapting it to the sequential nature of the editing task, a single-pass depth-first pipeline that optimizes each sample to convergence before moving on. While intuitive, this depth-first pipeline coupled with sample-wise updating over-optimizes each edit and induces interference across edits. Our controlled experiments reveal that simply restoring fine-tuning to the standard breadth-first (i.e., epoch-based) pipeline with mini-batch optimization substantially improves its effectiveness for model editing. Moreover, fine-tuning in editing also suffers from suboptimal tuning parameter locations inherited from prior methods. Through systematic analysis of tuning locations, we derive LocFT-BF, a simple and effective localized editing method built on the restored fine-tuning framework. Extensive experiments across diverse LLMs and datasets demonstrate that LocFT-BF outperforms state-of-the-art methods by large margins. Notably, to our knowledge, it is the first to sustain 100K edits and 72B-parameter models,10 x beyond prior practice, without sacrificing general capabilities. By clarifying a long-standing misconception and introducing a principled localized tuning strategy, we advance fine-tuning from an underestimated baseline to a leading method for model editing, establishing a solid foundation for future research.
PDF272September 29, 2025