ChatPaper.aiChatPaper

DiTFastAttn: Сжатие внимания для моделей трансформера диффузии

DiTFastAttn: Attention Compression for Diffusion Transformer Models

June 12, 2024
Авторы: Zhihang Yuan, Pu Lu, Hanling Zhang, Xuefei Ning, Linfeng Zhang, Tianchen Zhao, Shengen Yan, Guohao Dai, Yu Wang
cs.AI

Аннотация

Диффузионные трансформеры (DiT) отличаются в выдаче изображений и видеогенерации, но сталкиваются с вычислительными проблемами из-за квадратичной сложности само-внимания. Мы предлагаем DiTFastAttn, новый метод сжатия после обучения для смягчения вычислительной узкой точки DiT. Мы выявляем три ключевые избыточности в вычислении внимания во время вывода DiT: 1. пространственная избыточность, где многие головы внимания сосредотачиваются на локальной информации; 2. временная избыточность, с высокой схожестью между выходами внимания соседних шагов; 3. условная избыточность, где условные и безусловные выводы проявляют значительную схожесть. Для решения этих избыточностей мы предлагаем три техники: 1. Внимание окна с остаточным кэшированием для сокращения пространственной избыточности; 2. Снижение временной схожести для использования сходства между шагами; 3. Устранение условной избыточности для пропуска избыточных вычислений во время условной генерации. Чтобы продемонстрировать эффективность DiTFastAttn, мы применяем его к DiT, PixArt-Sigma для задач генерации изображений и OpenSora для задач генерации видео. Результаты оценки показывают, что для генерации изображений наш метод сокращает до 88\% операций с плавающей запятой и достигает до 1.6-кратного ускорения при генерации высокого разрешения.
English
Diffusion Transformers (DiT) excel at image and video generation but face computational challenges due to self-attention's quadratic complexity. We propose DiTFastAttn, a novel post-training compression method to alleviate DiT's computational bottleneck. We identify three key redundancies in the attention computation during DiT inference: 1. spatial redundancy, where many attention heads focus on local information; 2. temporal redundancy, with high similarity between neighboring steps' attention outputs; 3. conditional redundancy, where conditional and unconditional inferences exhibit significant similarity. To tackle these redundancies, we propose three techniques: 1. Window Attention with Residual Caching to reduce spatial redundancy; 2. Temporal Similarity Reduction to exploit the similarity between steps; 3. Conditional Redundancy Elimination to skip redundant computations during conditional generation. To demonstrate the effectiveness of DiTFastAttn, we apply it to DiT, PixArt-Sigma for image generation tasks, and OpenSora for video generation tasks. Evaluation results show that for image generation, our method reduces up to 88\% of the FLOPs and achieves up to 1.6x speedup at high resolution generation.

Summary

AI-Generated Summary

PDF261December 6, 2024