Nicht alle Merkmale von Sprachmodellen sind linear.
Not All Language Model Features Are Linear
May 23, 2024
Autoren: Joshua Engels, Isaac Liao, Eric J. Michaud, Wes Gurnee, Max Tegmark
cs.AI
Zusammenfassung
Neuere Arbeiten haben die Hypothese der linearen Repräsentation vorgeschlagen: dass Sprachmodelle Berechnungen durchführen, indem sie eindimensionale Repräsentationen von Konzepten ("Merkmale") im Aktivierungsbereich manipulieren. Im Gegensatz dazu untersuchen wir, ob einige Sprachmodellrepräsentationen möglicherweise von Natur aus mehrdimensional sind. Wir beginnen damit, eine strenge Definition von unzerlegbaren mehrdimensionalen Merkmalen zu entwickeln, basierend darauf, ob sie in unabhängige oder nicht gleichzeitig auftretende niedrigdimensionale Merkmale zerlegt werden können. Motiviert durch diese Definitionen entwerfen wir eine skalierbare Methode, die spärliche Autoencoder verwendet, um automatisch mehrdimensionale Merkmale in GPT-2 und Mistral 7B zu finden. Diese automatisch entdeckten Merkmale umfassen bemerkenswert interpretierbare Beispiele, z. B. kreisförmige Merkmale, die Tage der Woche und Monate des Jahres repräsentieren. Wir identifizieren Aufgaben, bei denen diese exakten Kreise verwendet werden, um Rechenaufgaben mit modularem Rechnen an Tagen der Woche und Monaten des Jahres zu lösen. Schließlich liefern wir Beweise dafür, dass diese kreisförmigen Merkmale tatsächlich die grundlegende Recheneinheit in diesen Aufgaben sind, mit Interventionsversuchen an Mistral 7B und Llama 3 8B, und wir finden weitere kreisförmige Darstellungen, indem wir die verborgenen Zustände für diese Aufgaben in interpretierbare Komponenten zerlegen.
English
Recent work has proposed the linear representation hypothesis: that language
models perform computation by manipulating one-dimensional representations of
concepts ("features") in activation space. In contrast, we explore whether some
language model representations may be inherently multi-dimensional. We begin by
developing a rigorous definition of irreducible multi-dimensional features
based on whether they can be decomposed into either independent or
non-co-occurring lower-dimensional features. Motivated by these definitions, we
design a scalable method that uses sparse autoencoders to automatically find
multi-dimensional features in GPT-2 and Mistral 7B. These auto-discovered
features include strikingly interpretable examples, e.g. circular features
representing days of the week and months of the year. We identify tasks where
these exact circles are used to solve computational problems involving modular
arithmetic in days of the week and months of the year. Finally, we provide
evidence that these circular features are indeed the fundamental unit of
computation in these tasks with intervention experiments on Mistral 7B and
Llama 3 8B, and we find further circular representations by breaking down the
hidden states for these tasks into interpretable components.Summary
AI-Generated Summary