Édition de connaissances séquentielles continues sans dégradation du modèle
Lifelong Sequential Knowledge Editing without Model Degradation
February 3, 2025
Auteurs: Akshat Gupta, Phudish Prateepamornkul, Maochuan Lu, Ahmed Alaa, Thomas Hartvigsen, Gopala Anumanchipalli
cs.AI
Résumé
Les travaux antérieurs sur l'édition de connaissances par modification de paramètres ont montré que l'édition séquentielle à grande échelle entraîne une dégradation significative du modèle. Dans cet article, nous étudions les raisons derrière cela et mettons à l'échelle l'édition séquentielle de connaissances à 10 000 modifications séquentielles, tout en maintenant les performances en aval du modèle d'origine. Nous montrons d'abord que les méthodes d'édition de connaissances localiser-puis-modifier conduisent à un surajustement sur les faits modifiés. Nous montrons également que l'édition continue de connaissances en utilisant ces méthodes entraîne une croissance disproportionnée de la norme de la matrice modifiée. Nous apportons ensuite un aperçu crucial du fonctionnement interne des méthodes localiser-puis-modifier. Nous montrons que la croissance de la norme est un tour de passe-passe caché utilisé par ces méthodes qui accorde une plus grande importance aux activations de sortie produites à partir des couches modifiées. Avec cette "piratage de l'importance", les couches modifiées contribuent beaucoup plus aux sorties du modèle. Pour atténuer ces problèmes, nous présentons ENCORE - Édition de connaissances Robuste avec Arrêt Précoce et Contrainte de Norme. ENCORE contrôle le surajustement et la croissance disproportionnée de la norme pour permettre une édition séquentielle à long terme, où nous sommes capables d'effectuer jusqu'à 10 000 modifications séquentielles sans perte de performances en aval. ENCORE est également 61 % plus rapide que MEMIT et 64 % plus rapide qu'AlphaEdit sur Llama3-8B.
English
Prior work in parameter-modifying knowledge editing has shown that
large-scale sequential editing leads to significant model degradation. In this
paper, we study the reasons behind this and scale sequential knowledge editing
to 10,000 sequential edits, while maintaining the downstream performance of the
original model. We first show that locate-then-edit knowledge editing methods
lead to overfitting on the edited facts. We also show that continuous knowledge
editing using these methods leads to disproportionate growth in the norm of the
edited matrix. We then provide a crucial insight into the inner workings of
locate-then-edit methods. We show that norm-growth is a hidden trick employed
by these methods that gives larger importance to the output activations
produced from the edited layers. With this "importance hacking", the edited
layers provide a much larger contributions to the model's output. To mitigate
these issues, we present ENCORE - Early stopping and Norm-Constrained Robust
knowledge Editing. ENCORE controls for overfitting and the disproportionate
norm-growth to enable long-term sequential editing, where we are able to
perform up to 10,000 sequential edits without loss of downstream performance.
ENCORE is also 61% faster than MEMIT and 64% faster than AlphaEdit on
Llama3-8B.Summary
AI-Generated Summary