Nem Todas as Características dos Modelos de Linguagem São Lineares
Not All Language Model Features Are Linear
May 23, 2024
Autores: Joshua Engels, Isaac Liao, Eric J. Michaud, Wes Gurnee, Max Tegmark
cs.AI
Resumo
Trabalhos recentes propuseram a hipótese da representação linear: que modelos de linguagem realizam computações manipulando representações unidimensionais de conceitos ("características") no espaço de ativação. Em contraste, exploramos se algumas representações de modelos de linguagem podem ser intrinsecamente multidimensionais. Começamos desenvolvendo uma definição rigorosa de características multidimensionais irredutíveis, baseada na possibilidade de serem decompostas em características de menor dimensão, sejam elas independentes ou não co-ocorrentes. Motivados por essas definições, projetamos um método escalável que utiliza autoencoders esparsos para encontrar automaticamente características multidimensionais em GPT-2 e Mistral 7B. Essas características descobertas automaticamente incluem exemplos notavelmente interpretáveis, como características circulares que representam dias da semana e meses do ano. Identificamos tarefas em que esses círculos exatos são usados para resolver problemas computacionais envolvendo aritmética modular em dias da semana e meses do ano. Por fim, fornecemos evidências de que essas características circulares são de fato a unidade fundamental de computação nessas tarefas, por meio de experimentos de intervenção em Mistral 7B e Llama 3 8B, e encontramos representações circulares adicionais ao decompor os estados ocultos dessas tarefas em componentes interpretáveis.
English
Recent work has proposed the linear representation hypothesis: that language
models perform computation by manipulating one-dimensional representations of
concepts ("features") in activation space. In contrast, we explore whether some
language model representations may be inherently multi-dimensional. We begin by
developing a rigorous definition of irreducible multi-dimensional features
based on whether they can be decomposed into either independent or
non-co-occurring lower-dimensional features. Motivated by these definitions, we
design a scalable method that uses sparse autoencoders to automatically find
multi-dimensional features in GPT-2 and Mistral 7B. These auto-discovered
features include strikingly interpretable examples, e.g. circular features
representing days of the week and months of the year. We identify tasks where
these exact circles are used to solve computational problems involving modular
arithmetic in days of the week and months of the year. Finally, we provide
evidence that these circular features are indeed the fundamental unit of
computation in these tasks with intervention experiments on Mistral 7B and
Llama 3 8B, and we find further circular representations by breaking down the
hidden states for these tasks into interpretable components.