ChatPaper.aiChatPaper

PAROAttention: Riordinamento Consapevole del Modello per un'Attenzione Sparse e Quantizzata Efficiente nei Modelli di Generazione Visiva

PAROAttention: Pattern-Aware ReOrdering for Efficient Sparse and Quantized Attention in Visual Generation Models

June 19, 2025
Autori: Tianchen Zhao, Ke Hong, Xinhao Yang, Xuefeng Xiao, Huixia Li, Feng Ling, Ruiqi Xie, Siqi Chen, Hongyu Zhu, Yichong Zhang, Yu Wang
cs.AI

Abstract

Nella generazione visiva, la complessità quadratica dei meccanismi di attenzione comporta costi elevati in termini di memoria e calcolo, specialmente per sequenze di token più lunghe necessarie nella generazione di immagini ad alta risoluzione o video multi-frame. Per affrontare questo problema, ricerche precedenti hanno esplorato tecniche come la sparsificazione e la quantizzazione. Tuttavia, queste tecniche incontrano sfide significative in condizioni di bassa densità e ridotta larghezza di bit. Attraverso un'analisi sistematica, abbiamo identificato che la difficoltà principale deriva dalle caratteristiche disperse e irregolari dei modelli di attenzione visiva. Pertanto, invece di introdurre progetti specializzati di sparsificazione e quantizzazione per adattarsi a tali modelli, proponiamo una strategia alternativa: *riorganizzare* il modello di attenzione per alleviare le sfide. Ispirati dalla natura di aggregazione locale dell'estrazione di caratteristiche visive, abbiamo progettato una nuova tecnica **Pattern-Aware token ReOrdering (PARO)**, che unifica i diversi modelli di attenzione in un modello a blocchi compatibile con l'hardware. Questa unificazione semplifica e migliora sostanzialmente sia la sparsificazione che la quantizzazione. Valutiamo i compromessi tra prestazioni ed efficienza di varie scelte progettuali e finalizziamo una metodologia adatta al modello unificato. Il nostro approccio, **PAROAttention**, consente la generazione di video e immagini con metriche senza perdita e risultati quasi identici rispetto ai baseline a precisione completa (FP), operando a densità notevolmente inferiori (~20%-30%) e larghezza di bit (**INT8/INT4**), ottenendo un'accelerazione end-to-end da **1.9x** a **2.7x**.
English
In visual generation, the quadratic complexity of attention mechanisms results in high memory and computational costs, especially for longer token sequences required in high-resolution image or multi-frame video generation. To address this, prior research has explored techniques such as sparsification and quantization. However, these techniques face significant challenges under low density and reduced bitwidths. Through systematic analysis, we identify that the core difficulty stems from the dispersed and irregular characteristics of visual attention patterns. Therefore, instead of introducing specialized sparsification and quantization design to accommodate such patterns, we propose an alternative strategy: *reorganizing* the attention pattern to alleviate the challenges. Inspired by the local aggregation nature of visual feature extraction, we design a novel **Pattern-Aware token ReOrdering (PARO)** technique, which unifies the diverse attention patterns into a hardware-friendly block-wise pattern. This unification substantially simplifies and enhances both sparsification and quantization. We evaluate the performance-efficiency trade-offs of various design choices and finalize a methodology tailored for the unified pattern. Our approach, **PAROAttention**, achieves video and image generation with lossless metrics, and nearly identical results from full-precision (FP) baselines, while operating at notably lower density (~20%-30%) and bitwidth (**INT8/INT4**), achieving a **1.9x** to **2.7x** end-to-end latency speedup.
PDF572June 23, 2025