Show-o2 : Modèles Multimodaux Unifiés Natifs Améliorés
Show-o2: Improved Native Unified Multimodal Models
June 18, 2025
Auteurs: Jinheng Xie, Zhenheng Yang, Mike Zheng Shou
cs.AI
Résumé
Cet article présente des modèles multimodaux unifiés natifs améliorés, à savoir Show-o2, qui exploitent la modélisation autorégressive et l'appariement de flux. Construits sur un espace d'autoencodeur variationnel causal 3D, des représentations visuelles unifiées sont élaborées via un chemin double de fusion spatiale (-temporelle), permettant une extensibilité à travers les modalités d'images et de vidéos tout en assurant une compréhension et une génération multimodales efficaces. Basé sur un modèle de langage, la modélisation autorégressive et l'appariement de flux sont appliqués de manière native respectivement à la tête de langage et à la tête de flux, afin de faciliter la prédiction de tokens textuels et la génération d'images/vidéos. Une recette d'entraînement en deux étapes est conçue pour apprendre efficacement et s'adapter à des modèles plus grands. Les modèles Show-o2 résultants démontrent une polyvalence dans la gestion d'une large gamme de tâches de compréhension et de génération multimodales à travers diverses modalités, incluant le texte, les images et les vidéos. Le code et les modèles sont disponibles à l'adresse suivante : https://github.com/showlab/Show-o.
English
This paper presents improved native unified multimodal models, i.e.,
Show-o2, that leverage autoregressive modeling and flow matching. Built upon a
3D causal variational autoencoder space, unified visual representations are
constructed through a dual-path of spatial (-temporal) fusion, enabling
scalability across image and video modalities while ensuring effective
multimodal understanding and generation. Based on a language model,
autoregressive modeling and flow matching are natively applied to the language
head and flow head, respectively, to facilitate text token prediction and
image/video generation. A two-stage training recipe is designed to effectively
learn and scale to larger models. The resulting Show-o2 models demonstrate
versatility in handling a wide range of multimodal understanding and generation
tasks across diverse modalities, including text, images, and videos. Code and
models are released at https://github.com/showlab/Show-o.