AtP*: Un método eficiente y escalable para localizar el comportamiento de modelos de lenguaje grandes en componentes
AtP*: An efficient and scalable method for localizing LLM behaviour to components
March 1, 2024
Autores: János Kramár, Tom Lieberum, Rohin Shah, Neel Nanda
cs.AI
Resumen
La Parcheo de Activación es un método para calcular directamente las atribuciones causales del comportamiento a los componentes del modelo. Sin embargo, aplicarlo de manera exhaustiva requiere un barrido con un costo que escala linealmente con el número de componentes del modelo, lo que puede ser prohibitivamente costoso para los modelos de lenguaje de última generación (LLMs, por sus siglas en inglés). Investigamos el Parcheo de Atribución (AtP, por sus siglas en inglés), una aproximación rápida basada en gradientes al Parcheo de Activación, y encontramos dos clases de modos de falla de AtP que conducen a falsos negativos significativos. Proponemos una variante de AtP llamada AtP*, con dos cambios para abordar estos modos de falla mientras se mantiene la escalabilidad. Presentamos el primer estudio sistemático de AtP y métodos alternativos para un parcheo de activación más rápido, y demostramos que AtP supera significativamente a todos los demás métodos investigados, con AtP* proporcionando una mejora adicional significativa. Finalmente, proporcionamos un método para acotar la probabilidad de falsos negativos restantes en las estimaciones de AtP*.
English
Activation Patching is a method of directly computing causal attributions of
behavior to model components. However, applying it exhaustively requires a
sweep with cost scaling linearly in the number of model components, which can
be prohibitively expensive for SoTA Large Language Models (LLMs). We
investigate Attribution Patching (AtP), a fast gradient-based approximation to
Activation Patching and find two classes of failure modes of AtP which lead to
significant false negatives. We propose a variant of AtP called AtP*, with two
changes to address these failure modes while retaining scalability. We present
the first systematic study of AtP and alternative methods for faster activation
patching and show that AtP significantly outperforms all other investigated
methods, with AtP* providing further significant improvement. Finally, we
provide a method to bound the probability of remaining false negatives of AtP*
estimates.