ChatPaper.aiChatPaper

Limitaciones de la Normalización en el Mecanismo de Atención

Limitations of Normalization in Attention Mechanism

August 25, 2025
Autores: Timur Mudarisov, Mikhail Burtsev, Tatiana Petrova, Radu State
cs.AI

Resumen

Este artículo investiga las limitaciones de la normalización en los mecanismos de atención. Comenzamos con un marco teórico que permite identificar la capacidad selectiva del modelo y la separación geométrica involucrada en la selección de tokens. Nuestro análisis incluye límites explícitos sobre las distancias y criterios de separación para los vectores de tokens bajo escalado softmax. A través de experimentos con el modelo GPT-2 preentrenado, validamos empíricamente nuestros resultados teóricos y analizamos comportamientos clave del mecanismo de atención. En particular, demostramos que a medida que aumenta el número de tokens seleccionados, la capacidad del modelo para distinguir tokens informativos disminuye, convergiendo frecuentemente hacia un patrón de selección uniforme. También mostramos que la sensibilidad del gradiente bajo normalización softmax presenta desafíos durante el entrenamiento, especialmente en configuraciones de baja temperatura. Estos hallazgos avanzan la comprensión actual del mecanismo de atención basado en softmax y motivan la necesidad de estrategias de normalización y selección más robustas en futuras arquitecturas de atención.
English
This paper investigates the limitations of the normalization in attention mechanisms. We begin with a theoretical framework that enables the identification of the model's selective ability and the geometric separation involved in token selection. Our analysis includes explicit bounds on distances and separation criteria for token vectors under softmax scaling. Through experiments with pre-trained GPT-2 model, we empirically validate our theoretical results and analyze key behaviors of the attention mechanism. Notably, we demonstrate that as the number of selected tokens increases, the model's ability to distinguish informative tokens declines, often converging toward a uniform selection pattern. We also show that gradient sensitivity under softmax normalization presents challenges during training, especially at low temperature settings. These findings advance current understanding of softmax-based attention mechanism and motivate the need for more robust normalization and selection strategies in future attention architectures.
PDF14August 26, 2025