ChatPaper.aiChatPaper

Democratizando los Modelos Generativos de Máscaras de Texto a Imagen con Tokens Unidimensionales Compactos Conscientes del Texto.

Democratizing Text-to-Image Masked Generative Models with Compact Text-Aware One-Dimensional Tokens

January 13, 2025
Autores: Dongwon Kim, Ju He, Qihang Yu, Chenglin Yang, Xiaohui Shen, Suha Kwak, Liang-Chieh Chen
cs.AI

Resumen

Los tokenizadores de imágenes constituyen la base de los modelos generativos modernos de texto a imagen, pero son notoriamente difíciles de entrenar. Además, la mayoría de los modelos existentes de texto a imagen dependen de conjuntos de datos privados a gran escala y de alta calidad, lo que los hace difíciles de replicar. En este trabajo, presentamos Text-Aware Transformer-based 1-Dimensional Tokenizer (TA-TiTok), un tokenizador de imágenes eficiente y potente que puede utilizar tokens discretos o continuos unidimensionales. TA-TiTok integra de manera única información textual durante la etapa de decodificación del tokenizador (es decir, detokenización), acelerando la convergencia y mejorando el rendimiento. TA-TiTok también se beneficia de un proceso de entrenamiento simplificado pero efectivo de una sola etapa, eliminando la necesidad de la compleja destilación de dos etapas utilizada en tokenizadores unidimensionales anteriores. Este diseño permite una escalabilidad fluida a conjuntos de datos grandes. Basándonos en esto, presentamos una familia de Modelos Generativos Enmascarados de Texto a Imagen (MaskGen), entrenados exclusivamente con datos abiertos mientras logran un rendimiento comparable a los modelos entrenados con datos privados. Nuestro objetivo es lanzar tanto los tokenizadores TA-TiTok eficientes y sólidos como los modelos MaskGen de datos abiertos y pesos abiertos para promover un acceso más amplio y democratizar el campo de los modelos generativos enmascarados de texto a imagen.
English
Image tokenizers form the foundation of modern text-to-image generative models but are notoriously difficult to train. Furthermore, most existing text-to-image models rely on large-scale, high-quality private datasets, making them challenging to replicate. In this work, we introduce Text-Aware Transformer-based 1-Dimensional Tokenizer (TA-TiTok), an efficient and powerful image tokenizer that can utilize either discrete or continuous 1-dimensional tokens. TA-TiTok uniquely integrates textual information during the tokenizer decoding stage (i.e., de-tokenization), accelerating convergence and enhancing performance. TA-TiTok also benefits from a simplified, yet effective, one-stage training process, eliminating the need for the complex two-stage distillation used in previous 1-dimensional tokenizers. This design allows for seamless scalability to large datasets. Building on this, we introduce a family of text-to-image Masked Generative Models (MaskGen), trained exclusively on open data while achieving comparable performance to models trained on private data. We aim to release both the efficient, strong TA-TiTok tokenizers and the open-data, open-weight MaskGen models to promote broader access and democratize the field of text-to-image masked generative models.

Summary

AI-Generated Summary

PDF173January 15, 2025