ChatPaper.aiChatPaper

TensorLens: Сквозной анализ Transformer с использованием тензоров высокого порядка внимания

TensorLens: End-to-End Transformer Analysis via High-Order Attention Tensors

January 25, 2026
Авторы: Ido Andrew Atad, Itamar Zimerman, Shahar Katz, Lior Wolf
cs.AI

Аннотация

Матрицы внимания являются фундаментальным элементом исследований транссформеров, поддерживая широкий спектр приложений, включая интерпретируемость, визуализацию, манипуляцию и дистилляцию. Однако большинство существующих анализов сосредоточены на отдельных головах или слоях внимания, не учитывая глобальное поведение модели. Хотя предыдущие работы расширяли формализации внимания на множество голов посредством усреднения и матричных умножений или включали такие компоненты, как нормализация и FFN-блоки, единое и полное представление, охватывающее все блоки трансформера, до сих пор отсутствует. Мы устраняем этот пробел, представляя TensorLens — новую формализацию, которая описывает весь трансформер как единый линейный оператор, зависящий от входных данных и выраженный через тензор внимания-взаимодействий высокого порядка. Этот тензор совместно кодирует внимание, FFN-блоки, функции активации, нормализацию и остаточные связи, предлагая теоретически согласованное и выразительное линейное представление вычислений модели. TensorLens имеет теоретическое обоснование, и наша эмпирическая проверка показывает, что он дает более богатые представления, чем предыдущие методы агрегации внимания. Наши эксперименты демонстрируют, что тензор внимания может служить мощной основой для разработки инструментов, направленных на интерпретируемость и понимание модели. Наш код прилагается в качестве дополнения.
English
Attention matrices are fundamental to transformer research, supporting a broad range of applications including interpretability, visualization, manipulation, and distillation. Yet, most existing analyses focus on individual attention heads or layers, failing to account for the model's global behavior. While prior efforts have extended attention formulations across multiple heads via averaging and matrix multiplications or incorporated components such as normalization and FFNs, a unified and complete representation that encapsulates all transformer blocks is still lacking. We address this gap by introducing TensorLens, a novel formulation that captures the entire transformer as a single, input-dependent linear operator expressed through a high-order attention-interaction tensor. This tensor jointly encodes attention, FFNs, activations, normalizations, and residual connections, offering a theoretically coherent and expressive linear representation of the model's computation. TensorLens is theoretically grounded and our empirical validation shows that it yields richer representations than previous attention-aggregation methods. Our experiments demonstrate that the attention tensor can serve as a powerful foundation for developing tools aimed at interpretability and model understanding. Our code is attached as a supplementary.
PDF11January 28, 2026