STARFlow2: 言語モデルと正規化フローの橋渡しによる統一マルチモーダル生成
STARFlow2: Bridging Language Models and Normalizing Flows for Unified Multimodal Generation
May 8, 2026
著者: Ying Shen, Tianrong Chen, Yuan Gao, Yizhe Zhang, Yuyang Wang, Miguel Ángel Bautista, Shuangfei Zhai, Joshua M. Susskind, Jiatao Gu
cs.AI
要旨
深層生成モデルはテキストと画像の分野で急速に進歩し、テキストと画像が混在するシーケンスの理解、推論、生成を可能にする統一的なマルチモーダルシステムへの動機付けとなっている。既存のアプローチの多くは、自己回帰型言語モデルと拡散ベースの画像生成器を組み合わせており、因果的なテキスト生成と反復的な視覚的ノイズ除去の間の構造的な不一致を継承している。我々は、自己回帰型正規化フローが自己回帰型Transformerであり、LLMと同じ因果マスク、KVキャッシュ機構、左から右への構造を共有するため、真に統一されたマルチモーダル生成にとって最も自然なパラダイムであると考える。本稿では、Pretzelアーキテクチャに基づくSTARFlow2を提案する。このアーキテクチャは、事前学習済みVLMストリームとTarFlowストリームを残差スキップ接続で垂直にインターリーブし、両ストリームが同じ因果マスクの下で動作する。深層-浅層フローデザインと統一FAE潜在空間を組み合わせることで、STARFlow2はキャッシュフレンドリーなインターリーブ生成を実現し、テキストと画像の出力が再エンコードなしで直接KVキャッシュに入力される。実験では、画像生成とマルチモーダル理解ベンチマークにおいて強力な性能を示し、自己回帰型フローが統一的なマルチモーダルモデリングの実行可能な基盤であることを実証している。
English
Deep generative models have advanced rapidly across text and vision, motivating unified multimodal systems that can understand, reason over, and generate interleaved text-image sequences. Most existing approaches combine autoregressive language modeling with diffusion-based image generators, inheriting a structural mismatch between causal text generation and iterative visual denoising. We observe that autoregressive normalizing flows are autoregressive Transformers--sharing the same causal mask, KV-cache mechanism, and left-to-right structure as LLMs--making them the most natural paradigm for true unified multimodal generation. We present STARFlow2, built on the Pretzel architecture that vertically interleaves a pretrained VLM stream with a TarFlow stream via residual skip connections, both operating under the same causal mask. Combined with a deep-shallow flow design and a unified FAE latent space, STARFlow2 enables cache-friendly interleaved generation where both text and visual outputs directly enter the KV-cache without re-encoding. Experiments demonstrate strong performance across image generation and multimodal understanding benchmarks, validating autoregressive flows as a viable foundation for unified multimodal modeling.