ChatPaper.aiChatPaper

AtP*: Un método eficiente y escalable para localizar el comportamiento de modelos de lenguaje grandes en componentes

AtP*: An efficient and scalable method for localizing LLM behaviour to components

March 1, 2024
Autores: János Kramár, Tom Lieberum, Rohin Shah, Neel Nanda
cs.AI

Resumen

La Parcheo de Activación es un método para calcular directamente las atribuciones causales del comportamiento a los componentes del modelo. Sin embargo, aplicarlo de manera exhaustiva requiere un barrido con un costo que escala linealmente con el número de componentes del modelo, lo que puede ser prohibitivamente costoso para los modelos de lenguaje de última generación (LLMs, por sus siglas en inglés). Investigamos el Parcheo de Atribución (AtP, por sus siglas en inglés), una aproximación rápida basada en gradientes al Parcheo de Activación, y encontramos dos clases de modos de falla de AtP que conducen a falsos negativos significativos. Proponemos una variante de AtP llamada AtP*, con dos cambios para abordar estos modos de falla mientras se mantiene la escalabilidad. Presentamos el primer estudio sistemático de AtP y métodos alternativos para un parcheo de activación más rápido, y demostramos que AtP supera significativamente a todos los demás métodos investigados, con AtP* proporcionando una mejora adicional significativa. Finalmente, proporcionamos un método para acotar la probabilidad de falsos negativos restantes en las estimaciones de AtP*.
English
Activation Patching is a method of directly computing causal attributions of behavior to model components. However, applying it exhaustively requires a sweep with cost scaling linearly in the number of model components, which can be prohibitively expensive for SoTA Large Language Models (LLMs). We investigate Attribution Patching (AtP), a fast gradient-based approximation to Activation Patching and find two classes of failure modes of AtP which lead to significant false negatives. We propose a variant of AtP called AtP*, with two changes to address these failure modes while retaining scalability. We present the first systematic study of AtP and alternative methods for faster activation patching and show that AtP significantly outperforms all other investigated methods, with AtP* providing further significant improvement. Finally, we provide a method to bound the probability of remaining false negatives of AtP* estimates.
PDF142December 15, 2024