Transfusión: Predecir el Próximo Token y Difundir Imágenes con un Modelo Multi-Modal
Transfusion: Predict the Next Token and Diffuse Images with One Multi-Modal Model
August 20, 2024
Autores: Chunting Zhou, Lili Yu, Arun Babu, Kushal Tirumala, Michihiro Yasunaga, Leonid Shamis, Jacob Kahn, Xuezhe Ma, Luke Zettlemoyer, Omer Levy
cs.AI
Resumen
Presentamos Transfusion, una receta para entrenar un modelo multi-modal sobre datos discretos y continuos. Transfusion combina la función de pérdida de modelado de lenguaje (predicción del siguiente token) con difusión para entrenar un único transformador sobre secuencias de modalidad mixta. Preentrenamos múltiples modelos de Transfusion con hasta 7 mil millones de parámetros desde cero en una mezcla de datos de texto e imagen, estableciendo leyes de escalado con respecto a una variedad de benchmarks uni- y cross-modales. Nuestros experimentos muestran que Transfusion escala significativamente mejor que cuantificar imágenes y entrenar un modelo de lenguaje sobre tokens de imagen discretos. Al introducir capas de codificación y decodificación específicas de la modalidad, podemos mejorar aún más el rendimiento de los modelos de Transfusion e incluso comprimir cada imagen a solo 16 parches. Además, demostramos que al escalar nuestra receta de Transfusion a 7 mil millones de parámetros y 2 billones de tokens multi-modales, producimos un modelo que puede generar imágenes y texto al nivel de modelos de difusión y modelos de lenguaje de escala similar, aprovechando los beneficios de ambos mundos.
English
We introduce Transfusion, a recipe for training a multi-modal model over
discrete and continuous data. Transfusion combines the language modeling loss
function (next token prediction) with diffusion to train a single transformer
over mixed-modality sequences. We pretrain multiple Transfusion models up to 7B
parameters from scratch on a mixture of text and image data, establishing
scaling laws with respect to a variety of uni- and cross-modal benchmarks. Our
experiments show that Transfusion scales significantly better than quantizing
images and training a language model over discrete image tokens. By introducing
modality-specific encoding and decoding layers, we can further improve the
performance of Transfusion models, and even compress each image to just 16
patches. We further demonstrate that scaling our Transfusion recipe to 7B
parameters and 2T multi-modal tokens produces a model that can generate images
and text on a par with similar scale diffusion models and language models,
reaping the benefits of both worlds.