TensorLens: Análisis Integral de Transformadores mediante Tensores de Atención de Alto Orden
TensorLens: End-to-End Transformer Analysis via High-Order Attention Tensors
January 25, 2026
Autores: Ido Andrew Atad, Itamar Zimerman, Shahar Katz, Lior Wolf
cs.AI
Resumen
Las matrices de atención son fundamentales para la investigación de transformadores, sustentando una amplia gama de aplicaciones que incluyen la interpretabilidad, visualización, manipulación y destilación. Sin embargo, la mayoría de los análisis existentes se centran en cabezales o capas de atención individuales, sin tener en cuenta el comportamiento global del modelo. Si bien esfuerzos previos han extendido las formulaciones de atención a través de múltiples cabezales mediante promedios y multiplicaciones de matrices, o han incorporado componentes como normalizaciones y FFNs, aún se carece de una representación unificada y completa que encapsule todos los bloques del transformador. Abordamos esta brecha presentando TensorLens, una formulación novedosa que captura el transformador completo como un único operador lineal dependiente de la entrada, expresado a través de un tensor de interacción-atención de alto orden. Este tensor codifica conjuntamente la atención, las FFNs, las activaciones, las normalizaciones y las conexiones residuales, ofreciendo una representación lineal teóricamente coherente y expresiva del cómputo del modelo. TensorLens tiene una base teórica sólida y nuestra validación empírica muestra que produce representaciones más ricas que los métodos previos de agregación de atención. Nuestros experimentos demuestran que el tensor de atención puede servir como una base poderosa para desarrollar herramientas orientadas a la interpretabilidad y comprensión de modelos. Nuestro código se adjunta como material suplementario.
English
Attention matrices are fundamental to transformer research, supporting a broad range of applications including interpretability, visualization, manipulation, and distillation. Yet, most existing analyses focus on individual attention heads or layers, failing to account for the model's global behavior. While prior efforts have extended attention formulations across multiple heads via averaging and matrix multiplications or incorporated components such as normalization and FFNs, a unified and complete representation that encapsulates all transformer blocks is still lacking. We address this gap by introducing TensorLens, a novel formulation that captures the entire transformer as a single, input-dependent linear operator expressed through a high-order attention-interaction tensor. This tensor jointly encodes attention, FFNs, activations, normalizations, and residual connections, offering a theoretically coherent and expressive linear representation of the model's computation. TensorLens is theoretically grounded and our empirical validation shows that it yields richer representations than previous attention-aggregation methods. Our experiments demonstrate that the attention tensor can serve as a powerful foundation for developing tools aimed at interpretability and model understanding. Our code is attached as a supplementary.