Niet alle kenmerken van taalmodelen zijn lineair
Not All Language Model Features Are Linear
May 23, 2024
Auteurs: Joshua Engels, Isaac Liao, Eric J. Michaud, Wes Gurnee, Max Tegmark
cs.AI
Samenvatting
Recent werk heeft de lineaire representatiehypothese voorgesteld: dat taalmodelberekeningen uitvoeren door eendimensionale representaties van concepten ("kenmerken") in de activatieruimte te manipuleren. In tegenstelling hiermee onderzoeken wij of sommige taalmodelrepresentaties inherent multidimensionaal kunnen zijn. We beginnen met het ontwikkelen van een rigoureuze definitie van onherleidbare multidimensionale kenmerken, gebaseerd op de vraag of ze kunnen worden ontbonden in onafhankelijke of niet-samenvoorkomende lagere-dimensionale kenmerken. Gemotiveerd door deze definities ontwerpen we een schaalbare methode die sparse autoencoders gebruikt om automatisch multidimensionale kenmerken in GPT-2 en Mistral 7B te vinden. Deze automatisch ontdekte kenmerken omvatten opvallend interpreteerbare voorbeelden, zoals circulaire kenmerken die dagen van de week en maanden van het jaar representeren. We identificeren taken waarin deze exacte cirkels worden gebruikt om rekenkundige problemen op te lossen die modulair rekenen met dagen van de week en maanden van het jaar betreffen. Tot slot leveren we bewijs dat deze circulaire kenmerken inderdaad de fundamentele rekenkundige eenheid zijn in deze taken met interventie-experimenten op Mistral 7B en Llama 3 8B, en we vinden verdere circulaire representaties door de verborgen toestanden voor deze taken af te breken in interpreteerbare componenten.
English
Recent work has proposed the linear representation hypothesis: that language
models perform computation by manipulating one-dimensional representations of
concepts ("features") in activation space. In contrast, we explore whether some
language model representations may be inherently multi-dimensional. We begin by
developing a rigorous definition of irreducible multi-dimensional features
based on whether they can be decomposed into either independent or
non-co-occurring lower-dimensional features. Motivated by these definitions, we
design a scalable method that uses sparse autoencoders to automatically find
multi-dimensional features in GPT-2 and Mistral 7B. These auto-discovered
features include strikingly interpretable examples, e.g. circular features
representing days of the week and months of the year. We identify tasks where
these exact circles are used to solve computational problems involving modular
arithmetic in days of the week and months of the year. Finally, we provide
evidence that these circular features are indeed the fundamental unit of
computation in these tasks with intervention experiments on Mistral 7B and
Llama 3 8B, and we find further circular representations by breaking down the
hidden states for these tasks into interpretable components.