ChatPaper.aiChatPaper

OmniFlow: Generierung von beliebigen zu beliebigen mit Multi-Modalen rektifizierten Flüssen

OmniFlow: Any-to-Any Generation with Multi-Modal Rectified Flows

December 2, 2024
Autoren: Shufan Li, Konstantinos Kallidromitis, Akash Gokul, Zichun Liao, Yusuke Kato, Kazuki Kozuka, Aditya Grover
cs.AI

Zusammenfassung

Wir stellen OmniFlow vor, ein neuartiges generatives Modell, das für Aufgaben der beliebigen Generierung wie Text-zu-Bild, Text-zu-Audio und Audio-zu-Bild-Synthese entwickelt wurde. OmniFlow erweitert das rektifizierte Fluss (RF) Framework, das in Text-zu-Bild-Modellen verwendet wird, um die gemeinsame Verteilung mehrerer Modalitäten zu handhaben. Es übertrifft frühere beliebig-generierende Modelle in einer Vielzahl von Aufgaben, wie Text-zu-Bild- und Text-zu-Audio-Synthese. Unsere Arbeit bietet drei wesentliche Beiträge: Erstens erweitern wir RF auf eine Multi-Modalitätseinstellung und führen einen neuartigen Leitmechanismus ein, der es Benutzern ermöglicht, die Ausrichtung zwischen verschiedenen Modalitäten in den generierten Ausgaben flexibel zu steuern. Zweitens schlagen wir eine neue Architektur vor, die die Text-zu-Bild-MMDiT-Architektur von Stable Diffusion 3 erweitert und Audio- und Textgenerierung ermöglicht. Die erweiterten Module können effizient einzeln vorab trainiert und mit dem herkömmlichen Text-zu-Bild-MMDiT zur Feinabstimmung fusioniert werden. Schließlich führen wir eine umfassende Studie zu den Designentscheidungen von rektifizierten Fluss-Transformern für die groß angelegte Audio- und Textgenerierung durch und bieten wertvolle Einblicke in die Optimierung der Leistung über verschiedene Modalitäten hinweg. Der Code wird unter https://github.com/jacklishufan/OmniFlows verfügbar sein.
English
We introduce OmniFlow, a novel generative model designed for any-to-any generation tasks such as text-to-image, text-to-audio, and audio-to-image synthesis. OmniFlow advances the rectified flow (RF) framework used in text-to-image models to handle the joint distribution of multiple modalities. It outperforms previous any-to-any models on a wide range of tasks, such as text-to-image and text-to-audio synthesis. Our work offers three key contributions: First, we extend RF to a multi-modal setting and introduce a novel guidance mechanism, enabling users to flexibly control the alignment between different modalities in the generated outputs. Second, we propose a novel architecture that extends the text-to-image MMDiT architecture of Stable Diffusion 3 and enables audio and text generation. The extended modules can be efficiently pretrained individually and merged with the vanilla text-to-image MMDiT for fine-tuning. Lastly, we conduct a comprehensive study on the design choices of rectified flow transformers for large-scale audio and text generation, providing valuable insights into optimizing performance across diverse modalities. The Code will be available at https://github.com/jacklishufan/OmniFlows.

Summary

AI-Generated Summary

PDF132December 6, 2024