AtP*: Eine effiziente und skalierbare Methode zur Lokalisierung von LLM-Verhalten auf Komponenten
AtP*: An efficient and scalable method for localizing LLM behaviour to components
March 1, 2024
Autoren: János Kramár, Tom Lieberum, Rohin Shah, Neel Nanda
cs.AI
Zusammenfassung
Aktivierungspatching ist eine Methode zur direkten Berechnung kausaler Zuschreibungen von Verhalten zu Modellkomponenten. Die exhaustive Anwendung erfordert jedoch einen Durchlauf, dessen Kosten linear mit der Anzahl der Modellkomponenten skalieren, was bei modernen Large Language Models (LLMs) unverhältnismäßig teuer sein kann. Wir untersuchen Attribution Patching (AtP), eine schnelle, gradientenbasierte Approximation von Aktivierungspatching, und identifizieren zwei Klassen von Fehlermodi bei AtP, die zu signifikanten falschen Negativen führen. Wir schlagen eine Variante von AtP namens AtP* vor, die zwei Änderungen enthält, um diese Fehlermodi zu beheben, während die Skalierbarkeit erhalten bleibt. Wir präsentieren die erste systematische Studie zu AtP und alternativen Methoden für schnelleres Aktivierungspatching und zeigen, dass AtP alle anderen untersuchten Methoden deutlich übertrifft, wobei AtP* eine weitere signifikante Verbesserung bietet. Abschließend stellen wir eine Methode vor, um die Wahrscheinlichkeit verbleibender falscher Negativschätzungen von AtP* zu begrenzen.
English
Activation Patching is a method of directly computing causal attributions of
behavior to model components. However, applying it exhaustively requires a
sweep with cost scaling linearly in the number of model components, which can
be prohibitively expensive for SoTA Large Language Models (LLMs). We
investigate Attribution Patching (AtP), a fast gradient-based approximation to
Activation Patching and find two classes of failure modes of AtP which lead to
significant false negatives. We propose a variant of AtP called AtP*, with two
changes to address these failure modes while retaining scalability. We present
the first systematic study of AtP and alternative methods for faster activation
patching and show that AtP significantly outperforms all other investigated
methods, with AtP* providing further significant improvement. Finally, we
provide a method to bound the probability of remaining false negatives of AtP*
estimates.