ChatPaper.aiChatPaper

Show-o2: Verbeterde Native Geïntegreerde Multimodale Modellen

Show-o2: Improved Native Unified Multimodal Models

June 18, 2025
Auteurs: Jinheng Xie, Zhenheng Yang, Mike Zheng Shou
cs.AI

Samenvatting

Dit artikel presenteert verbeterde native geünificeerde multimodale modellen, genaamd Show-o2, die gebruikmaken van autoregressieve modellering en flow matching. Gebaseerd op een 3D causaal variatie-autoencoder ruimte, worden geünificeerde visuele representaties geconstrueerd via een dubbelpad van ruimtelijke (-temporele) fusie, waardoor schaalbaarheid over beeld- en videomodaliteiten wordt mogelijk gemaakt terwijl effectieve multimodale begripsvorming en generatie wordt gewaarborgd. Gebaseerd op een taalmodel, worden autoregressieve modellering en flow matching natively toegepast op respectievelijk de taalhead en de flow head, om teksttokenvoorspelling en beeld/video-generatie te faciliteren. Een tweefasen trainingsrecept is ontworpen om effectief te leren en op te schalen naar grotere modellen. De resulterende Show-o2-modellen tonen veelzijdigheid in het omgaan met een breed scala aan multimodale begripsvorming en generatietaken over diverse modaliteiten, waaronder tekst, beelden en video's. Code en modellen zijn vrijgegeven op https://github.com/showlab/Show-o.
English
This paper presents improved native unified multimodal models, i.e., Show-o2, that leverage autoregressive modeling and flow matching. Built upon a 3D causal variational autoencoder space, unified visual representations are constructed through a dual-path of spatial (-temporal) fusion, enabling scalability across image and video modalities while ensuring effective multimodal understanding and generation. Based on a language model, autoregressive modeling and flow matching are natively applied to the language head and flow head, respectively, to facilitate text token prediction and image/video generation. A two-stage training recipe is designed to effectively learn and scale to larger models. The resulting Show-o2 models demonstrate versatility in handling a wide range of multimodal understanding and generation tasks across diverse modalities, including text, images, and videos. Code and models are released at https://github.com/showlab/Show-o.
PDF293June 20, 2025