ChatPaper.aiChatPaper

OmniCreator: Selbstüberwachte vereinheitlichte Generierung mit universellem Bearbeiten

OmniCreator: Self-Supervised Unified Generation with Universal Editing

December 3, 2024
Autoren: Haodong Chen, Lan Wang, Harry Yang, Ser-Nam Lim
cs.AI

Zusammenfassung

Wir stellen OmniCreator vor, ein neuartiges Framework, das Text-aufgeforderte vereinheitlichte (Bild+Video)-Generierung sowie Bearbeitung an einem Ort durchführen kann. OmniCreator erwirbt generative und universelle Bearbeitungsfähigkeiten auf selbstüberwachter Weise, indem es originale Text-Video-Paare als Bedingungen verwendet und gleichzeitig dasselbe Video als Rauschunterdrückungsziel nutzt, um die semantische Entsprechung zwischen Video und Text zu erlernen. Während der Inferenz, wenn ein Textprompt und ein Video präsentiert werden, ist OmniCreator in der Lage, ein Ziel zu generieren, das beiden treu ist und einen universellen Bearbeitungseffekt erzielt, der im Gegensatz zu bestehenden Bearbeitungsarbeiten steht, die hauptsächlich auf bestimmte Bearbeitungstypen abzielen oder zusätzliche Steuerungen (z.B. strukturelle Bedingungen, Aufmerksamkeitsmerkmale oder DDIM-Inversion) erfordern. Andererseits wird OmniCreator bei Vorlage eines Textprompts allein generativ und produziert hochwertige Videos als Ergebnis der erlernten semantischen Entsprechung. Es wurde festgestellt, dass diese Fähigkeiten auch auf Bilder übertragen werden können, was OmniCreator zu einem wirklich vereinheitlichten Framework macht. Darüber hinaus, aufgrund des Mangels an bestehenden generativen Video-Bearbeitungs-Benchmarks, stellen wir den OmniBench-99 Datensatz vor, der entworfen wurde, um die Leistung generativer Video-Bearbeitungsmodelle umfassend zu bewerten. Umfangreiche Experimente zeigen, dass OmniCreator eine wesentliche Überlegenheit gegenüber allen anderen Modellen aufweist.
English
We introduce OmniCreator, a novel framework that can conduct text-prompted unified (image+video) generation as well as editing all in one place. OmniCreator acquires generative and universal editing capabilities in a self-supervised manner, taking original text-video pairs as conditions while utilizing the same video as a denoising target to learn the semantic correspondence between video and text. During inference, when presented with a text prompt and a video, OmniCreator is capable of generating a target that is faithful to both, achieving a universal editing effect that is unconstrained as opposed to existing editing work that primarily focuses on certain editing types or relies on additional controls (e.g., structural conditions, attention features, or DDIM inversion). On the other hand, when presented with a text prompt only, OmniCreator becomes generative, producing high-quality video as a result of the semantic correspondence learned. Importantly, we found that the same capabilities extend to images as is, making OmniCreator a truly unified framework. Further, due to the lack of existing generative video editing benchmarks, we introduce the OmniBench-99 dataset, designed to evaluate the performance of generative video editing models comprehensively. Extensive experiments demonstrate that OmniCreator exhibits substantial superiority over all other models.

Summary

AI-Generated Summary

PDF143December 4, 2024