ChatPaper.aiChatPaper

モデルの劣化なしでの生涯にわたる逐次知識編集

Lifelong Sequential Knowledge Editing without Model Degradation

February 3, 2025
著者: Akshat Gupta, Phudish Prateepamornkul, Maochuan Lu, Ahmed Alaa, Thomas Hartvigsen, Gopala Anumanchipalli
cs.AI

要旨

パラメータ修正型知識編集に関する以前の研究では、大規模な連続編集がモデルの著しい劣化をもたらすことが示されています。本論文では、この背景にある理由を調査し、連続知識編集を10,000回までスケーリングすると同時に、元のモデルの下流パフォーマンスを維持します。まず、編集された事実に過学習を引き起こす「位置特定後編集」知識編集手法を示します。また、これらの手法を用いた連続知識編集が、編集された行列のノルムの不均衡な成長をもたらすことを示します。次に、「位置特定後編集」手法の内部動作に関する重要な洞察を提供します。これらの手法が使用する「重要度ハッキング」としてのノルム成長は、編集された層からの出力活性化により大きな重要度を与える隠れたトリックであることを示します。この「重要度ハッキング」により、編集された層はモデルの出力に対してはるかに大きな貢献を提供します。これらの問題を緩和するために、ENCORE(Early stopping and Norm-Constrained Robust knowledge Editing)を提案します。ENCOREは、過学習とノルムの不均衡な成長を制御し、下流パフォーマンスの損失なしに長期的な連続編集を可能にします。ENCOREは、Llama3-8BにおいてMEMITより61%、AlphaEditより64%高速です。
English
Prior work in parameter-modifying knowledge editing has shown that large-scale sequential editing leads to significant model degradation. In this paper, we study the reasons behind this and scale sequential knowledge editing to 10,000 sequential edits, while maintaining the downstream performance of the original model. We first show that locate-then-edit knowledge editing methods lead to overfitting on the edited facts. We also show that continuous knowledge editing using these methods leads to disproportionate growth in the norm of the edited matrix. We then provide a crucial insight into the inner workings of locate-then-edit methods. We show that norm-growth is a hidden trick employed by these methods that gives larger importance to the output activations produced from the edited layers. With this "importance hacking", the edited layers provide a much larger contributions to the model's output. To mitigate these issues, we present ENCORE - Early stopping and Norm-Constrained Robust knowledge Editing. ENCORE controls for overfitting and the disproportionate norm-growth to enable long-term sequential editing, where we are able to perform up to 10,000 sequential edits without loss of downstream performance. ENCORE is also 61% faster than MEMIT and 64% faster than AlphaEdit on Llama3-8B.

Summary

AI-Generated Summary

PDF52February 4, 2025