ChatPaper.aiChatPaper

Show-o2 : Modèles Multimodaux Unifiés Natifs Améliorés

Show-o2: Improved Native Unified Multimodal Models

June 18, 2025
Auteurs: Jinheng Xie, Zhenheng Yang, Mike Zheng Shou
cs.AI

Résumé

Cet article présente des modèles multimodaux unifiés natifs améliorés, à savoir Show-o2, qui exploitent la modélisation autorégressive et l'appariement de flux. Construits sur un espace d'autoencodeur variationnel causal 3D, des représentations visuelles unifiées sont élaborées via un chemin double de fusion spatiale (-temporelle), permettant une extensibilité à travers les modalités d'images et de vidéos tout en assurant une compréhension et une génération multimodales efficaces. Basé sur un modèle de langage, la modélisation autorégressive et l'appariement de flux sont appliqués de manière native respectivement à la tête de langage et à la tête de flux, afin de faciliter la prédiction de tokens textuels et la génération d'images/vidéos. Une recette d'entraînement en deux étapes est conçue pour apprendre efficacement et s'adapter à des modèles plus grands. Les modèles Show-o2 résultants démontrent une polyvalence dans la gestion d'une large gamme de tâches de compréhension et de génération multimodales à travers diverses modalités, incluant le texte, les images et les vidéos. Le code et les modèles sont disponibles à l'adresse suivante : https://github.com/showlab/Show-o.
English
This paper presents improved native unified multimodal models, i.e., Show-o2, that leverage autoregressive modeling and flow matching. Built upon a 3D causal variational autoencoder space, unified visual representations are constructed through a dual-path of spatial (-temporal) fusion, enabling scalability across image and video modalities while ensuring effective multimodal understanding and generation. Based on a language model, autoregressive modeling and flow matching are natively applied to the language head and flow head, respectively, to facilitate text token prediction and image/video generation. A two-stage training recipe is designed to effectively learn and scale to larger models. The resulting Show-o2 models demonstrate versatility in handling a wide range of multimodal understanding and generation tasks across diverse modalities, including text, images, and videos. Code and models are released at https://github.com/showlab/Show-o.
PDF172June 20, 2025