REPAIR: Edição Robusta via Intervenção Adaptativa Progressiva e Reintegração
REPAIR: Robust Editing via Progressive Adaptive Intervention and Reintegration
October 2, 2025
Autores: Yisu Wang, Ming Wang, Haoyuan Song, Wenjie Huang, Chaozheng Wang, Yi Xie, Xuming Ran
cs.AI
Resumo
O pós-treinamento de grandes modelos de linguagem (LLMs) é limitado pelo alto custo de adquirir novos conhecimentos ou corrigir erros e pelos efeitos colaterais indesejados que frequentemente surgem com o retreinamento. Para abordar esses problemas, introduzimos o REPAIR (Edição Robusta via Intervenção Progressiva Adaptativa e Reintegração), um framework de edição contínua projetado para suportar atualizações precisas e de baixo custo do modelo, preservando ao mesmo tempo o conhecimento não-alvo. O REPAIR mitiga a instabilidade e os conflitos de edições sequenciais em larga escala por meio de um mecanismo de feedback em circuito fechado, acoplado a um gerenciamento dinâmico de memória. Além disso, ao incorporar fusão frequente de conhecimento e impor fortes proteções de localidade, o REPAIR aborda efetivamente as deficiências das abordagens tradicionais agnósticas à distribuição, que frequentemente ignoram efeitos indesejados em cascata. Nossos experimentos demonstram que o REPAIR aumenta a precisão da edição em 10%-30% em várias famílias de modelos e reduz significativamente o esquecimento de conhecimento. Este trabalho introduz um framework robusto para o desenvolvimento de LLMs confiáveis, escaláveis e em constante evolução.
English
Post-training for large language models (LLMs) is constrained by the high
cost of acquiring new knowledge or correcting errors and by the unintended side
effects that frequently arise from retraining. To address these issues, we
introduce REPAIR (Robust Editing via Progressive Adaptive Intervention and
Reintegration), a lifelong editing framework designed to support precise and
low-cost model updates while preserving non-target knowledge. REPAIR mitigates
the instability and conflicts of large-scale sequential edits through a
closed-loop feedback mechanism coupled with dynamic memory management.
Furthermore, by incorporating frequent knowledge fusion and enforcing strong
locality guards, REPAIR effectively addresses the shortcomings of traditional
distribution-agnostic approaches that often overlook unintended ripple effects.
Our experiments demonstrate that REPAIR boosts editing accuracy by 10%-30%
across multiple model families and significantly reduces knowledge forgetting.
This work introduces a robust framework for developing reliable, scalable, and
continually evolving LLMs.