ChatPaper.aiChatPaper

Transformadores de Difusión con Autoencoders de Representación

Diffusion Transformers with Representation Autoencoders

October 13, 2025
Autores: Boyang Zheng, Nanye Ma, Shengbang Tong, Saining Xie
cs.AI

Resumen

El modelado generativo latente, donde un autocodificador preentrenado mapea píxeles en un espacio latente para el proceso de difusión, se ha convertido en la estrategia estándar para los Transformadores de Difusión (DiT); sin embargo, el componente del autocodificador apenas ha evolucionado. La mayoría de los DiT siguen dependiendo del codificador VAE original, lo que introduce varias limitaciones: arquitecturas obsoletas que comprometen la simplicidad estructural, espacios latentes de baja dimensión que restringen la capacidad de información y representaciones débiles que resultan de un entrenamiento basado únicamente en la reconstrucción, lo que finalmente limita la calidad generativa. En este trabajo, exploramos reemplazar el VAE con codificadores de representación preentrenados (por ejemplo, DINO, SigLIP, MAE) combinados con decodificadores entrenados, formando lo que denominamos Autocodificadores de Representación (RAE). Estos modelos proporcionan tanto reconstrucciones de alta calidad como espacios latentes semánticamente ricos, al mismo tiempo que permiten una arquitectura escalable basada en transformadores. Dado que estos espacios latentes suelen ser de alta dimensión, un desafío clave es permitir que los transformadores de difusión operen eficazmente dentro de ellos. Analizamos las fuentes de esta dificultad, proponemos soluciones teóricamente fundamentadas y las validamos empíricamente. Nuestro enfoque logra una convergencia más rápida sin pérdidas auxiliares de alineación de representaciones. Utilizando una variante de DiT equipada con una cabeza DDT ligera y amplia, obtenemos resultados sólidos en la generación de imágenes en ImageNet: 1.51 FID a 256x256 (sin guía) y 1.13 tanto a 256x256 como a 512x512 (con guía). RAE ofrece ventajas claras y debería ser el nuevo estándar para el entrenamiento de transformadores de difusión.
English
Latent generative modeling, where a pretrained autoencoder maps pixels into a latent space for the diffusion process, has become the standard strategy for Diffusion Transformers (DiT); however, the autoencoder component has barely evolved. Most DiTs continue to rely on the original VAE encoder, which introduces several limitations: outdated backbones that compromise architectural simplicity, low-dimensional latent spaces that restrict information capacity, and weak representations that result from purely reconstruction-based training and ultimately limit generative quality. In this work, we explore replacing the VAE with pretrained representation encoders (e.g., DINO, SigLIP, MAE) paired with trained decoders, forming what we term Representation Autoencoders (RAEs). These models provide both high-quality reconstructions and semantically rich latent spaces, while allowing for a scalable transformer-based architecture. Since these latent spaces are typically high-dimensional, a key challenge is enabling diffusion transformers to operate effectively within them. We analyze the sources of this difficulty, propose theoretically motivated solutions, and validate them empirically. Our approach achieves faster convergence without auxiliary representation alignment losses. Using a DiT variant equipped with a lightweight, wide DDT head, we achieve strong image generation results on ImageNet: 1.51 FID at 256x256 (no guidance) and 1.13 at both 256x256 and 512x512 (with guidance). RAE offers clear advantages and should be the new default for diffusion transformer training.
PDF1575October 14, 2025