ChatPaper.aiChatPaper

Derrière RoPE : Comment le masque causal encode-t-il l'information positionnelle ?

Behind RoPE: How Does Causal Mask Encode Positional Information?

September 25, 2025
papers.authors: Junu Kim, Xiao Liu, Zhenghao Lin, Lei Ji, Yeyun Gong, Edward Choi
cs.AI

papers.abstract

Bien que les encodages positionnels explicites tels que RoPE constituent une source principale d'information positionnelle dans les décodeurs de Transformers, le masque causal fournit également des informations positionnelles. Dans ce travail, nous démontrons que le masque causal peut induire des motifs dépendants de la position dans les scores d'attention, même sans paramètres ni dépendance causale dans l'entrée. Notre analyse théorique indique que le motif d'attention induit tend à favoriser les paires requête-clé proches, reflétant le comportement des encodages positionnels courants. Une analyse empirique confirme que les modèles entraînés présentent le même comportement, les paramètres appris amplifiant davantage ces motifs. Notamment, nous avons constaté que l'interaction entre le masque causal et RoPE déforme les motifs de scores d'attention relative de RoPE en motifs non relatifs. Nous avons observé cet effet de manière cohérente dans les grands modèles de langage modernes, suggérant l'importance de considérer le masque causal comme une source d'information positionnelle aux côtés des encodages positionnels explicites.
English
While explicit positional encodings such as RoPE are a primary source of positional information in Transformer decoders, the causal mask also provides positional information. In this work, we prove that the causal mask can induce position-dependent patterns in attention scores, even without parameters or causal dependency in the input. Our theoretical analysis indicates that the induced attention pattern tends to favor nearby query-key pairs, mirroring the behavior of common positional encodings. Empirical analysis confirms that trained models exhibit the same behavior, with learned parameters further amplifying these patterns. Notably, we found that the interaction of causal mask and RoPE distorts RoPE's relative attention score patterns into non-relative ones. We consistently observed this effect in modern large language models, suggesting the importance of considering the causal mask as a source of positional information alongside explicit positional encodings.
PDF52September 26, 2025