Transfusión: Predecir el Próximo Token y Difundir Imágenes con un Modelo Multi-ModalTransfusion: Predict the Next Token and Diffuse Images with One
Multi-Modal Model
Presentamos Transfusion, una receta para entrenar un modelo multi-modal sobre datos discretos y continuos. Transfusion combina la función de pérdida de modelado de lenguaje (predicción del siguiente token) con difusión para entrenar un único transformador sobre secuencias de modalidad mixta. Preentrenamos múltiples modelos de Transfusion con hasta 7 mil millones de parámetros desde cero en una mezcla de datos de texto e imagen, estableciendo leyes de escalado con respecto a una variedad de benchmarks uni- y cross-modales. Nuestros experimentos muestran que Transfusion escala significativamente mejor que cuantificar imágenes y entrenar un modelo de lenguaje sobre tokens de imagen discretos. Al introducir capas de codificación y decodificación específicas de la modalidad, podemos mejorar aún más el rendimiento de los modelos de Transfusion e incluso comprimir cada imagen a solo 16 parches. Además, demostramos que al escalar nuestra receta de Transfusion a 7 mil millones de parámetros y 2 billones de tokens multi-modales, producimos un modelo que puede generar imágenes y texto al nivel de modelos de difusión y modelos de lenguaje de escala similar, aprovechando los beneficios de ambos mundos.