ChatPaper.aiChatPaper

Maskierte generative Video-zu-Audio-Transformer mit verbesserte Synchronizität

Masked Generative Video-to-Audio Transformers with Enhanced Synchronicity

July 15, 2024
Autoren: Santiago Pascual, Chunghsin Yeh, Ioannis Tsiamas, Joan Serrà
cs.AI

Zusammenfassung

Die Video-zu-Audio (V2A)-Generierung nutzt ausschließlich visuelle Video-Merkmale, um plausible Klänge zu erzeugen, die zur Szene passen. Es ist wichtig, dass die erzeugten Klanganfänge mit den visuellen Aktionen übereinstimmen, die mit ihnen ausgerichtet sind, da sonst unnatürliche Synchronisationsartefakte entstehen. In jüngsten Arbeiten wurde die Entwicklung von Klanggeneratoren untersucht, die zunächst auf Standbildern und dann auf Video-Merkmalen basieren, wobei der Schwerpunkt auf Qualität und semantischer Übereinstimmung lag, während die Synchronisation ignoriert wurde oder durch Opferung eines gewissen Maßes an Qualität zugunsten der Verbesserung der Synchronisation erreicht wurde. In dieser Arbeit schlagen wir ein V2A-generatives Modell namens MaskVAT vor, das einen vollständigen hochwertigen allgemeinen Audio-Codec mit einem Sequenz-zu-Sequenz maskierten generativen Modell verbindet. Diese Kombination ermöglicht es, sowohl eine hohe Audioqualität, semantische Übereinstimmung als auch zeitliche Synchronizität gleichzeitig zu modellieren. Unsere Ergebnisse zeigen, dass wir durch die Kombination eines hochwertigen Codecs mit den entsprechenden vorab trainierten audiovisuellen Merkmalen und einer Sequenz-zu-Sequenz-Parallelstruktur hochgradig synchronisierte Ergebnisse erzielen können, während wir auf der anderen Seite im Wettbewerb mit dem Stand der Technik nicht-Codec-generativer Audio-Modelle stehen. Beispiellvideos und generierte Audios sind unter https://maskvat.github.io verfügbar.
English
Video-to-audio (V2A) generation leverages visual-only video features to render plausible sounds that match the scene. Importantly, the generated sound onsets should match the visual actions that are aligned with them, otherwise unnatural synchronization artifacts arise. Recent works have explored the progression of conditioning sound generators on still images and then video features, focusing on quality and semantic matching while ignoring synchronization, or by sacrificing some amount of quality to focus on improving synchronization only. In this work, we propose a V2A generative model, named MaskVAT, that interconnects a full-band high-quality general audio codec with a sequence-to-sequence masked generative model. This combination allows modeling both high audio quality, semantic matching, and temporal synchronicity at the same time. Our results show that, by combining a high-quality codec with the proper pre-trained audio-visual features and a sequence-to-sequence parallel structure, we are able to yield highly synchronized results on one hand, whilst being competitive with the state of the art of non-codec generative audio models. Sample videos and generated audios are available at https://maskvat.github.io .

Summary

AI-Generated Summary

PDF82November 28, 2024