ChatPaper.aiChatPaper

Multimodale Muziekgeneratie met Expliciete Bruggen en Ophalingsaugmentatie

Multimodal Music Generation with Explicit Bridges and Retrieval Augmentation

December 12, 2024
Auteurs: Baisen Wang, Le Zhuo, Zhaokai Wang, Chenxi Bao, Wu Chengjing, Xuecheng Nie, Jiao Dai, Jizhong Han, Yue Liao, Si Liu
cs.AI

Samenvatting

Multimodale muziekgeneratie heeft als doel muziek te produceren vanuit diverse inputmodaliteiten, waaronder tekst, video's en afbeeldingen. Bestaande methoden maken gebruik van een gemeenschappelijke insluitruimte voor multimodale fusie. Ondanks hun effectiviteit in andere modaliteiten, worden ze geconfronteerd met uitdagingen zoals gegevensschaarste, zwakke crossmodale uitlijning en beperkte controleerbaarheid bij toepassing op multimodale muziekgeneratie. Dit artikel behandelt deze kwesties door expliciete bruggen van tekst en muziek te gebruiken voor multimodale uitlijning. We introduceren een nieuw method genaamd Visuele Muziekbrug (VMB). Specifiek zet een Multimodaal Muziekbeschrijvingsmodel visuele input om in gedetailleerde tekstuele beschrijvingen om de tekstbrug te bieden; een Dubbel-spoor Muziekophaalmodule die brede en gerichte ophaalstrategieën combineert om de muziekbrug te bieden en gebruikerscontrole mogelijk te maken. Ten slotte ontwerpen we een Expliciet Geconditioneerd Muziekgeneratiekader om muziek te genereren op basis van de twee bruggen. We voeren experimenten uit op video-naar-muziek, afbeelding-naar-muziek, tekst-naar-muziek en controleerbare muziekgeneratietaken, samen met experimenten over controleerbaarheid. De resultaten tonen aan dat VMB de muziekkwaliteit, modaliteit en aanpassingsuitlijning aanzienlijk verbetert in vergelijking met eerdere methoden. VMB stelt een nieuwe standaard voor interpreteerbare en expressieve multimodale muziekgeneratie met toepassingen in verschillende multimediavelden. Demonstraties en code zijn beschikbaar op https://github.com/wbs2788/VMB.
English
Multimodal music generation aims to produce music from diverse input modalities, including text, videos, and images. Existing methods use a common embedding space for multimodal fusion. Despite their effectiveness in other modalities, their application in multimodal music generation faces challenges of data scarcity, weak cross-modal alignment, and limited controllability. This paper addresses these issues by using explicit bridges of text and music for multimodal alignment. We introduce a novel method named Visuals Music Bridge (VMB). Specifically, a Multimodal Music Description Model converts visual inputs into detailed textual descriptions to provide the text bridge; a Dual-track Music Retrieval module that combines broad and targeted retrieval strategies to provide the music bridge and enable user control. Finally, we design an Explicitly Conditioned Music Generation framework to generate music based on the two bridges. We conduct experiments on video-to-music, image-to-music, text-to-music, and controllable music generation tasks, along with experiments on controllability. The results demonstrate that VMB significantly enhances music quality, modality, and customization alignment compared to previous methods. VMB sets a new standard for interpretable and expressive multimodal music generation with applications in various multimedia fields. Demos and code are available at https://github.com/wbs2788/VMB.
PDF74December 16, 2024