REPARACIÓN: Edición Robusta mediante Intervención Adaptativa Progresiva y Reintegración
REPAIR: Robust Editing via Progressive Adaptive Intervention and Reintegration
October 2, 2025
Autores: Yisu Wang, Ming Wang, Haoyuan Song, Wenjie Huang, Chaozheng Wang, Yi Xie, Xuming Ran
cs.AI
Resumen
El posentrenamiento de modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) se ve limitado por el alto costo de adquirir nuevos conocimientos o corregir errores, así como por los efectos secundarios no deseados que frecuentemente surgen al reentrenar. Para abordar estos problemas, presentamos REPAIR (Edición Robusta mediante Intervención Progresiva Adaptativa y Reintegración), un marco de edición continua diseñado para respaldar actualizaciones precisas y de bajo costo en los modelos, preservando al mismo tiempo el conocimiento no objetivo. REPAIR mitiga la inestabilidad y los conflictos de las ediciones secuenciales a gran escala mediante un mecanismo de retroalimentación en bucle cerrado acoplado con una gestión dinámica de la memoria. Además, al incorporar una fusión frecuente de conocimientos y aplicar fuertes protecciones de localidad, REPAIR aborda eficazmente las deficiencias de los enfoques tradicionales agnósticos a la distribución, que a menudo pasan por alto los efectos de propagación no deseados. Nuestros experimentos demuestran que REPAIR aumenta la precisión de la edición entre un 10% y un 30% en múltiples familias de modelos y reduce significativamente el olvido de conocimientos. Este trabajo introduce un marco robusto para desarrollar LLMs confiables, escalables y en continua evolución.
English
Post-training for large language models (LLMs) is constrained by the high
cost of acquiring new knowledge or correcting errors and by the unintended side
effects that frequently arise from retraining. To address these issues, we
introduce REPAIR (Robust Editing via Progressive Adaptive Intervention and
Reintegration), a lifelong editing framework designed to support precise and
low-cost model updates while preserving non-target knowledge. REPAIR mitigates
the instability and conflicts of large-scale sequential edits through a
closed-loop feedback mechanism coupled with dynamic memory management.
Furthermore, by incorporating frequent knowledge fusion and enforcing strong
locality guards, REPAIR effectively addresses the shortcomings of traditional
distribution-agnostic approaches that often overlook unintended ripple effects.
Our experiments demonstrate that REPAIR boosts editing accuracy by 10%-30%
across multiple model families and significantly reduces knowledge forgetting.
This work introduces a robust framework for developing reliable, scalable, and
continually evolving LLMs.