ChatPaper.aiChatPaper

HART: Generazione Visiva Efficiente con un Trasformatore Ibrido Autoregressivo

HART: Efficient Visual Generation with Hybrid Autoregressive Transformer

October 14, 2024
Autori: Haotian Tang, Yecheng Wu, Shang Yang, Enze Xie, Junsong Chen, Junyu Chen, Zhuoyang Zhang, Han Cai, Yao Lu, Song Han
cs.AI

Abstract

Introduciamo Hybrid Autoregressive Transformer (HART), un modello generativo visuale autoregressivo (AR) in grado di generare direttamente immagini 1024x1024, competendo con i modelli di diffusione nella qualità della generazione di immagini. I modelli AR esistenti affrontano limitazioni dovute alla scarsa qualità di ricostruzione dell'immagine dei loro tokenizzatori discreti e ai costi proibitivi di addestramento associati alla generazione di immagini a 1024px. Per affrontare queste sfide, presentiamo il tokenizer ibrido, che decompone i latenti continui dall'autocoder in due componenti: token discreti che rappresentano l'immagine generale e token continui che rappresentano le componenti residue che non possono essere rappresentate dai token discreti. La componente discreta è modellata da un modello AR discreto a risoluzione scalabile, mentre la componente continua è appresa con un modulo di diffusione residuale leggero con soli 37M parametri. Rispetto al tokenizer VAR solo discreto, il nostro approccio ibrido migliora il FID di ricostruzione da 2.11 a 0.30 su MJHQ-30K, portando a un miglioramento del FID di generazione del 31% da 7.85 a 5.38. HART supera anche i modelli di diffusione all'avanguardia sia nel FID che nel punteggio CLIP, con un throughput superiore del 4.5-7.7x e MACs inferiori del 6.9-13.4x. Il nostro codice è open source su https://github.com/mit-han-lab/hart.
English
We introduce Hybrid Autoregressive Transformer (HART), an autoregressive (AR) visual generation model capable of directly generating 1024x1024 images, rivaling diffusion models in image generation quality. Existing AR models face limitations due to the poor image reconstruction quality of their discrete tokenizers and the prohibitive training costs associated with generating 1024px images. To address these challenges, we present the hybrid tokenizer, which decomposes the continuous latents from the autoencoder into two components: discrete tokens representing the big picture and continuous tokens representing the residual components that cannot be represented by the discrete tokens. The discrete component is modeled by a scalable-resolution discrete AR model, while the continuous component is learned with a lightweight residual diffusion module with only 37M parameters. Compared with the discrete-only VAR tokenizer, our hybrid approach improves reconstruction FID from 2.11 to 0.30 on MJHQ-30K, leading to a 31% generation FID improvement from 7.85 to 5.38. HART also outperforms state-of-the-art diffusion models in both FID and CLIP score, with 4.5-7.7x higher throughput and 6.9-13.4x lower MACs. Our code is open sourced at https://github.com/mit-han-lab/hart.

Summary

AI-Generated Summary

PDF182November 16, 2024