ChatPaper.aiChatPaper

AtP*: Eine effiziente und skalierbare Methode zur Lokalisierung von LLM-Verhalten auf Komponenten

AtP*: An efficient and scalable method for localizing LLM behaviour to components

March 1, 2024
Autoren: János Kramár, Tom Lieberum, Rohin Shah, Neel Nanda
cs.AI

Zusammenfassung

Aktivierungspatching ist eine Methode zur direkten Berechnung kausaler Zuschreibungen von Verhalten zu Modellkomponenten. Die exhaustive Anwendung erfordert jedoch einen Durchlauf, dessen Kosten linear mit der Anzahl der Modellkomponenten skalieren, was bei modernen Large Language Models (LLMs) unverhältnismäßig teuer sein kann. Wir untersuchen Attribution Patching (AtP), eine schnelle, gradientenbasierte Approximation von Aktivierungspatching, und identifizieren zwei Klassen von Fehlermodi bei AtP, die zu signifikanten falschen Negativen führen. Wir schlagen eine Variante von AtP namens AtP* vor, die zwei Änderungen enthält, um diese Fehlermodi zu beheben, während die Skalierbarkeit erhalten bleibt. Wir präsentieren die erste systematische Studie zu AtP und alternativen Methoden für schnelleres Aktivierungspatching und zeigen, dass AtP alle anderen untersuchten Methoden deutlich übertrifft, wobei AtP* eine weitere signifikante Verbesserung bietet. Abschließend stellen wir eine Methode vor, um die Wahrscheinlichkeit verbleibender falscher Negativschätzungen von AtP* zu begrenzen.
English
Activation Patching is a method of directly computing causal attributions of behavior to model components. However, applying it exhaustively requires a sweep with cost scaling linearly in the number of model components, which can be prohibitively expensive for SoTA Large Language Models (LLMs). We investigate Attribution Patching (AtP), a fast gradient-based approximation to Activation Patching and find two classes of failure modes of AtP which lead to significant false negatives. We propose a variant of AtP called AtP*, with two changes to address these failure modes while retaining scalability. We present the first systematic study of AtP and alternative methods for faster activation patching and show that AtP significantly outperforms all other investigated methods, with AtP* providing further significant improvement. Finally, we provide a method to bound the probability of remaining false negatives of AtP* estimates.
PDF142December 15, 2024