ChatPaper.aiChatPaper

REPAIR: Edição Robusta via Intervenção Adaptativa Progressiva e Reintegração

REPAIR: Robust Editing via Progressive Adaptive Intervention and Reintegration

October 2, 2025
Autores: Yisu Wang, Ming Wang, Haoyuan Song, Wenjie Huang, Chaozheng Wang, Yi Xie, Xuming Ran
cs.AI

Resumo

O pós-treinamento de grandes modelos de linguagem (LLMs) é limitado pelo alto custo de adquirir novos conhecimentos ou corrigir erros e pelos efeitos colaterais indesejados que frequentemente surgem com o retreinamento. Para abordar esses problemas, introduzimos o REPAIR (Edição Robusta via Intervenção Progressiva Adaptativa e Reintegração), um framework de edição contínua projetado para suportar atualizações precisas e de baixo custo do modelo, preservando ao mesmo tempo o conhecimento não-alvo. O REPAIR mitiga a instabilidade e os conflitos de edições sequenciais em larga escala por meio de um mecanismo de feedback em circuito fechado, acoplado a um gerenciamento dinâmico de memória. Além disso, ao incorporar fusão frequente de conhecimento e impor fortes proteções de localidade, o REPAIR aborda efetivamente as deficiências das abordagens tradicionais agnósticas à distribuição, que frequentemente ignoram efeitos indesejados em cascata. Nossos experimentos demonstram que o REPAIR aumenta a precisão da edição em 10%-30% em várias famílias de modelos e reduz significativamente o esquecimento de conhecimento. Este trabalho introduz um framework robusto para o desenvolvimento de LLMs confiáveis, escaláveis e em constante evolução.
English
Post-training for large language models (LLMs) is constrained by the high cost of acquiring new knowledge or correcting errors and by the unintended side effects that frequently arise from retraining. To address these issues, we introduce REPAIR (Robust Editing via Progressive Adaptive Intervention and Reintegration), a lifelong editing framework designed to support precise and low-cost model updates while preserving non-target knowledge. REPAIR mitigates the instability and conflicts of large-scale sequential edits through a closed-loop feedback mechanism coupled with dynamic memory management. Furthermore, by incorporating frequent knowledge fusion and enforcing strong locality guards, REPAIR effectively addresses the shortcomings of traditional distribution-agnostic approaches that often overlook unintended ripple effects. Our experiments demonstrate that REPAIR boosts editing accuracy by 10%-30% across multiple model families and significantly reduces knowledge forgetting. This work introduces a robust framework for developing reliable, scalable, and continually evolving LLMs.
PDF82October 6, 2025