ChatPaper.aiChatPaper

Matrimonio del Transformador Autoregresivo y la Difusión con Autoregresión Multirreferencia

Marrying Autoregressive Transformer and Diffusion with Multi-Reference Autoregression

June 11, 2025
Autores: Dingcheng Zhen, Qian Qiao, Tan Yu, Kangxi Wu, Ziwei Zhang, Siyuan Liu, Shunshun Yin, Ming Tao
cs.AI

Resumen

Presentamos TransDiff, el primer modelo de generación de imágenes que combina un Transformer Autoregresivo (AR) con modelos de difusión. En este marco de modelado conjunto, TransDiff codifica etiquetas e imágenes en características semánticas de alto nivel y emplea un modelo de difusión para estimar la distribución de muestras de imágenes. En el benchmark de ImageNet 256x256, TransDiff supera significativamente a otros modelos de generación de imágenes basados en Transformer AR o modelos de difusión de manera independiente. Específicamente, TransDiff logra una Distancia de Fréchet Inception (FID) de 1.61 y un Puntaje Inception (IS) de 293.4, además de ofrecer una latencia de inferencia x2 más rápida en comparación con los métodos más avanzados basados en Transformer AR y x112 más rápida en comparación con modelos exclusivamente de difusión. Además, basándonos en el modelo TransDiff, introducimos un nuevo paradigma de generación de imágenes llamado Autoregresión Multi-Referencia (MRAR), que realiza generación autoregresiva prediciendo la siguiente imagen. MRAR permite al modelo referenciar múltiples imágenes generadas previamente, facilitando así el aprendizaje de representaciones más diversas y mejorando la calidad de las imágenes generadas en iteraciones posteriores. Al aplicar MRAR, el rendimiento de TransDiff mejora, reduciendo el FID de 1.61 a 1.42. Esperamos que TransDiff abra una nueva frontera en el campo de la generación de imágenes.
English
We introduce TransDiff, the first image generation model that marries Autoregressive (AR) Transformer with diffusion models. In this joint modeling framework, TransDiff encodes labels and images into high-level semantic features and employs a diffusion model to estimate the distribution of image samples. On the ImageNet 256x256 benchmark, TransDiff significantly outperforms other image generation models based on standalone AR Transformer or diffusion models. Specifically, TransDiff achieves a Fr\'echet Inception Distance (FID) of 1.61 and an Inception Score (IS) of 293.4, and further provides x2 faster inference latency compared to state-of-the-art methods based on AR Transformer and x112 faster inference compared to diffusion-only models. Furthermore, building on the TransDiff model, we introduce a novel image generation paradigm called Multi-Reference Autoregression (MRAR), which performs autoregressive generation by predicting the next image. MRAR enables the model to reference multiple previously generated images, thereby facilitating the learning of more diverse representations and improving the quality of generated images in subsequent iterations. By applying MRAR, the performance of TransDiff is improved, with the FID reduced from 1.61 to 1.42. We expect TransDiff to open up a new frontier in the field of image generation.
PDF352June 17, 2025