ChatPaper.aiChatPaper

Transfusión: Predecir el Próximo Token y Difundir Imágenes con un Modelo Multi-Modal

Transfusion: Predict the Next Token and Diffuse Images with One Multi-Modal Model

August 20, 2024
Autores: Chunting Zhou, Lili Yu, Arun Babu, Kushal Tirumala, Michihiro Yasunaga, Leonid Shamis, Jacob Kahn, Xuezhe Ma, Luke Zettlemoyer, Omer Levy
cs.AI

Resumen

Presentamos Transfusion, una receta para entrenar un modelo multi-modal sobre datos discretos y continuos. Transfusion combina la función de pérdida de modelado de lenguaje (predicción del siguiente token) con difusión para entrenar un único transformador sobre secuencias de modalidad mixta. Preentrenamos múltiples modelos de Transfusion con hasta 7 mil millones de parámetros desde cero en una mezcla de datos de texto e imagen, estableciendo leyes de escalado con respecto a una variedad de benchmarks uni- y cross-modales. Nuestros experimentos muestran que Transfusion escala significativamente mejor que cuantificar imágenes y entrenar un modelo de lenguaje sobre tokens de imagen discretos. Al introducir capas de codificación y decodificación específicas de la modalidad, podemos mejorar aún más el rendimiento de los modelos de Transfusion e incluso comprimir cada imagen a solo 16 parches. Además, demostramos que al escalar nuestra receta de Transfusion a 7 mil millones de parámetros y 2 billones de tokens multi-modales, producimos un modelo que puede generar imágenes y texto al nivel de modelos de difusión y modelos de lenguaje de escala similar, aprovechando los beneficios de ambos mundos.
English
We introduce Transfusion, a recipe for training a multi-modal model over discrete and continuous data. Transfusion combines the language modeling loss function (next token prediction) with diffusion to train a single transformer over mixed-modality sequences. We pretrain multiple Transfusion models up to 7B parameters from scratch on a mixture of text and image data, establishing scaling laws with respect to a variety of uni- and cross-modal benchmarks. Our experiments show that Transfusion scales significantly better than quantizing images and training a language model over discrete image tokens. By introducing modality-specific encoding and decoding layers, we can further improve the performance of Transfusion models, and even compress each image to just 16 patches. We further demonstrate that scaling our Transfusion recipe to 7B parameters and 2T multi-modal tokens produces a model that can generate images and text on a par with similar scale diffusion models and language models, reaping the benefits of both worlds.
PDF633November 17, 2024