ChatPaper.aiChatPaper

Toutes les caractéristiques des modèles de langage ne sont pas linéaires.

Not All Language Model Features Are Linear

May 23, 2024
Auteurs: Joshua Engels, Isaac Liao, Eric J. Michaud, Wes Gurnee, Max Tegmark
cs.AI

Résumé

Des travaux récents ont proposé l'hypothèse de représentation linéaire : les modèles de langage effectuent des calculs en manipulant des représentations unidimensionnelles de concepts ("caractéristiques") dans l'espace d'activation. En revanche, nous explorons si certaines représentations des modèles de langage pourraient être intrinsèquement multidimensionnelles. Nous commençons par développer une définition rigoureuse des caractéristiques multidimensionnelles irréductibles, basée sur leur capacité à être décomposées en caractéristiques de dimension inférieure indépendantes ou non co-occurrentes. Motivés par ces définitions, nous concevons une méthode évolutive utilisant des autoencodeurs parcimonieux pour découvrir automatiquement des caractéristiques multidimensionnelles dans GPT-2 et Mistral 7B. Ces caractéristiques auto-découvertes incluent des exemples remarquablement interprétables, tels que des caractéristiques circulaires représentant les jours de la semaine et les mois de l'année. Nous identifions des tâches où ces cercles exacts sont utilisés pour résoudre des problèmes de calcul impliquant l'arithmétique modulaire pour les jours de la semaine et les mois de l'année. Enfin, nous fournissons des preuves que ces caractéristiques circulaires sont bien l'unité fondamentale de calcul dans ces tâches grâce à des expériences d'intervention sur Mistral 7B et Llama 3 8B, et nous trouvons d'autres représentations circulaires en décomposant les états cachés pour ces tâches en composants interprétables.
English
Recent work has proposed the linear representation hypothesis: that language models perform computation by manipulating one-dimensional representations of concepts ("features") in activation space. In contrast, we explore whether some language model representations may be inherently multi-dimensional. We begin by developing a rigorous definition of irreducible multi-dimensional features based on whether they can be decomposed into either independent or non-co-occurring lower-dimensional features. Motivated by these definitions, we design a scalable method that uses sparse autoencoders to automatically find multi-dimensional features in GPT-2 and Mistral 7B. These auto-discovered features include strikingly interpretable examples, e.g. circular features representing days of the week and months of the year. We identify tasks where these exact circles are used to solve computational problems involving modular arithmetic in days of the week and months of the year. Finally, we provide evidence that these circular features are indeed the fundamental unit of computation in these tasks with intervention experiments on Mistral 7B and Llama 3 8B, and we find further circular representations by breaking down the hidden states for these tasks into interpretable components.

Summary

AI-Generated Summary

PDF423December 15, 2024