Не все признаки языковой модели являются линейными.
Not All Language Model Features Are Linear
May 23, 2024
Авторы: Joshua Engels, Isaac Liao, Eric J. Michaud, Wes Gurnee, Max Tegmark
cs.AI
Аннотация
В недавних исследованиях была предложена гипотеза линейного представления: что языковые модели выполняют вычисления, манипулируя одномерными представлениями концепций ("признаков") в пространстве активации. В отличие от этого, мы исследуем, могут ли некоторые представления языковых моделей быть в принципе многомерными. Мы начинаем с разработки строгого определения неразложимых многомерных признаков на основе того, могут ли они быть разложены на независимые или невзаимосвязанные более низкоразмерные признаки. Вдохновленные этими определениями, мы разрабатываем масштабируемый метод, использующий разреженные автокодировщики для автоматического обнаружения многомерных признаков в GPT-2 и Mistral 7B. Эти автоматически обнаруженные признаки включают удивительно интерпретируемые примеры, например, круговые признаки, представляющие дни недели и месяцы года. Мы выявляем задачи, в которых эти точные круги используются для решения вычислительных проблем, связанных с модульной арифметикой в днях недели и месяцах года. Наконец, мы предоставляем доказательства того, что эти круговые признаки действительно являются фундаментальной единицей вычислений в этих задачах, проводя интервенционные эксперименты на Mistral 7B и Llama 3 8B, и обнаруживая дополнительные круговые представления, разбирая скрытые состояния для этих задач на интерпретируемые компоненты.
English
Recent work has proposed the linear representation hypothesis: that language
models perform computation by manipulating one-dimensional representations of
concepts ("features") in activation space. In contrast, we explore whether some
language model representations may be inherently multi-dimensional. We begin by
developing a rigorous definition of irreducible multi-dimensional features
based on whether they can be decomposed into either independent or
non-co-occurring lower-dimensional features. Motivated by these definitions, we
design a scalable method that uses sparse autoencoders to automatically find
multi-dimensional features in GPT-2 and Mistral 7B. These auto-discovered
features include strikingly interpretable examples, e.g. circular features
representing days of the week and months of the year. We identify tasks where
these exact circles are used to solve computational problems involving modular
arithmetic in days of the week and months of the year. Finally, we provide
evidence that these circular features are indeed the fundamental unit of
computation in these tasks with intervention experiments on Mistral 7B and
Llama 3 8B, and we find further circular representations by breaking down the
hidden states for these tasks into interpretable components.Summary
AI-Generated Summary