ChatPaper.aiChatPaper

PAROAttention: Patroonbewust Herordenen voor Efficiënte Sparse en Gekwantiseerde Attention in Visuele Generatiemodellen

PAROAttention: Pattern-Aware ReOrdering for Efficient Sparse and Quantized Attention in Visual Generation Models

June 19, 2025
Auteurs: Tianchen Zhao, Ke Hong, Xinhao Yang, Xuefeng Xiao, Huixia Li, Feng Ling, Ruiqi Xie, Siqi Chen, Hongyu Zhu, Yichong Zhang, Yu Wang
cs.AI

Samenvatting

Bij visuele generatie resulteert de kwadratische complexiteit van aandachtmechanismen in hoge geheugen- en rekenkosten, vooral voor langere tokenreeksen die nodig zijn bij het genereren van hoge-resolutiebeelden of meerdere frames van video. Om dit aan te pakken, heeft eerder onderzoek technieken zoals verspreiding en kwantisering verkend. Deze technieken worden echter geconfronteerd met aanzienlijke uitdagingen bij lage dichtheid en gereduceerde bitbreedtes. Door systematische analyse identificeren we dat de kernmoeilijkheid voortkomt uit de verspreide en onregelmatige kenmerken van visuele aandachtspatronen. Daarom stellen we, in plaats van gespecialiseerde verspreidings- en kwantiseringsontwerpen te introduceren om dergelijke patronen te accommoderen, een alternatieve strategie voor: het *herorganiseren* van het aandachtspatroon om de uitdagingen te verlichten. Geïnspireerd door de lokale aggregatie van visuele kenmerkenextractie, ontwerpen we een nieuwe **Pattern-Aware token ReOrdering (PARO)**-techniek, die de diverse aandachtspatronen verenigt in een hardwarevriendelijk bloksgewijs patroon. Deze vereniging vereenvoudigt en verbetert zowel verspreiding als kwantisering aanzienlijk. We evalueren de prestatie-efficiëntie-afwegingen van verschillende ontwerpkeuzes en finaliseren een methodologie die is afgestemd op het verenigde patroon. Onze aanpak, **PAROAttention**, bereikt videogeneratie en beeldgeneratie met verliesloze metrieken en bijna identieke resultaten ten opzichte van full-precision (FP) basislijnen, terwijl deze werkt met aanzienlijk lagere dichtheid (~20%-30%) en bitbreedte (**INT8/INT4**), wat resulteert in een **1,9x** tot **2,7x** end-to-end latentieversnelling.
English
In visual generation, the quadratic complexity of attention mechanisms results in high memory and computational costs, especially for longer token sequences required in high-resolution image or multi-frame video generation. To address this, prior research has explored techniques such as sparsification and quantization. However, these techniques face significant challenges under low density and reduced bitwidths. Through systematic analysis, we identify that the core difficulty stems from the dispersed and irregular characteristics of visual attention patterns. Therefore, instead of introducing specialized sparsification and quantization design to accommodate such patterns, we propose an alternative strategy: *reorganizing* the attention pattern to alleviate the challenges. Inspired by the local aggregation nature of visual feature extraction, we design a novel **Pattern-Aware token ReOrdering (PARO)** technique, which unifies the diverse attention patterns into a hardware-friendly block-wise pattern. This unification substantially simplifies and enhances both sparsification and quantization. We evaluate the performance-efficiency trade-offs of various design choices and finalize a methodology tailored for the unified pattern. Our approach, **PAROAttention**, achieves video and image generation with lossless metrics, and nearly identical results from full-precision (FP) baselines, while operating at notably lower density (~20%-30%) and bitwidth (**INT8/INT4**), achieving a **1.9x** to **2.7x** end-to-end latency speedup.
PDF582June 23, 2025