ChatPaper.aiChatPaper

PAROAttention: Musterbewusste Neuordnung für effiziente spärliche und quantisierte Aufmerksamkeit in visuellen Generierungsmodellen

PAROAttention: Pattern-Aware ReOrdering for Efficient Sparse and Quantized Attention in Visual Generation Models

June 19, 2025
Autoren: Tianchen Zhao, Ke Hong, Xinhao Yang, Xuefeng Xiao, Huixia Li, Feng Ling, Ruiqi Xie, Siqi Chen, Hongyu Zhu, Yichong Zhang, Yu Wang
cs.AI

Zusammenfassung

In der visuellen Generierung führt die quadratische Komplexität von Aufmerksamkeitsmechanismen zu hohen Speicher- und Rechenkosten, insbesondere bei längeren Token-Sequenzen, die für die Generierung hochauflösender Bilder oder mehrfacher Videoframes erforderlich sind. Um dies zu bewältigen, haben frühere Forschungen Techniken wie Sparsifizierung und Quantisierung untersucht. Diese Techniken stoßen jedoch bei geringer Dichte und reduzierter Bitbreite auf erhebliche Herausforderungen. Durch systematische Analysen identifizieren wir, dass die Kernschwierigkeit von den zerstreuten und unregelmäßigen Eigenschaften visueller Aufmerksamkeitsmuster herrührt. Daher schlagen wir anstelle der Einführung spezialisierter Sparsifizierungs- und Quantisierungsdesigns, die solche Muster berücksichtigen, eine alternative Strategie vor: die *Neuordnung* des Aufmerksamkeitsmusters, um die Herausforderungen zu mildern. Inspiriert von der lokalen Aggregationsnatur der visuellen Merkmalsextraktion entwickeln wir eine neuartige **Pattern-Aware Token ReOrdering (PARO)**-Technik, die die diversen Aufmerksamkeitsmuster in ein hardwarefreundliches blockweises Muster vereinheitlicht. Diese Vereinheitlichung vereinfacht und verbessert sowohl die Sparsifizierung als auch die Quantisierung erheblich. Wir bewerten die Leistungs-Effizienz-Kompromisse verschiedener Designentscheidungen und finalisieren eine Methodik, die auf das vereinheitlichte Muster zugeschnitten ist. Unser Ansatz, **PAROAttention**, erreicht die Generierung von Videos und Bilden mit verlustfreien Metriken und nahezu identischen Ergebnissen wie die Vollpräzision (FP)-Baselines, während er bei deutlich geringerer Dichte (~20%-30%) und Bitbreite (**INT8/INT4**) arbeitet und eine **1,9x** bis **2,7x** Beschleunigung der End-to-End-Latenz erzielt.
English
In visual generation, the quadratic complexity of attention mechanisms results in high memory and computational costs, especially for longer token sequences required in high-resolution image or multi-frame video generation. To address this, prior research has explored techniques such as sparsification and quantization. However, these techniques face significant challenges under low density and reduced bitwidths. Through systematic analysis, we identify that the core difficulty stems from the dispersed and irregular characteristics of visual attention patterns. Therefore, instead of introducing specialized sparsification and quantization design to accommodate such patterns, we propose an alternative strategy: *reorganizing* the attention pattern to alleviate the challenges. Inspired by the local aggregation nature of visual feature extraction, we design a novel **Pattern-Aware token ReOrdering (PARO)** technique, which unifies the diverse attention patterns into a hardware-friendly block-wise pattern. This unification substantially simplifies and enhances both sparsification and quantization. We evaluate the performance-efficiency trade-offs of various design choices and finalize a methodology tailored for the unified pattern. Our approach, **PAROAttention**, achieves video and image generation with lossless metrics, and nearly identical results from full-precision (FP) baselines, while operating at notably lower density (~20%-30%) and bitwidth (**INT8/INT4**), achieving a **1.9x** to **2.7x** end-to-end latency speedup.
PDF532June 23, 2025