ChatPaper.aiChatPaper

UniMuMo: Geïntegreerde Generatie van Tekst, Muziek en Beweging

UniMuMo: Unified Text, Music and Motion Generation

October 6, 2024
Auteurs: Han Yang, Kun Su, Yutong Zhang, Jiaben Chen, Kaizhi Qian, Gaowen Liu, Chuang Gan
cs.AI

Samenvatting

We introduceren UniMuMo, een verenigd multimodaal model dat in staat is willekeurige tekst-, muziek- en bewegingsgegevens als invoercondities te gebruiken om uitvoer te genereren over alle drie modaliteiten. Om het gebrek aan tijdgesynchroniseerde gegevens aan te pakken, aligneren we ongepaarde muziek- en bewegingsgegevens op basis van ritmische patronen om gebruik te maken van bestaande grootschalige datasets die alleen muziek of alleen beweging bevatten. Door muziek, beweging en tekst om te zetten in op tokens gebaseerde representatie, overbrugt ons model deze modaliteiten via een verenigde encoder-decoder transformer-architectuur. Om meerdere generatietaken binnen een enkel kader te ondersteunen, introduceren we verschillende architecturale verbeteringen. We stellen voor om beweging te encoderen met een muziekcodeboek, waarbij beweging wordt gemapt naar dezelfde eigenschapsruimte als muziek. We introduceren een muziek-beweging parallel generatieschema dat alle muziek- en bewegingsgeneratietaken verenigt in een enkele transformer-decoderarchitectuur met een enkele trainingsopdracht voor gezamenlijke muziek-bewegingsgeneratie. Bovendien is het model ontworpen door bestaande voorgeleerde single-modality modellen fijn af te stemmen, waardoor de rekenvereisten aanzienlijk worden verminderd. Uitgebreide experimenten tonen aan dat UniMuMo competitieve resultaten behaalt op alle eenrichtingsgeneratie-benchmarks over muziek, beweging en tekstmodaliteiten. Kwantitatieve resultaten zijn beschikbaar op de {projectpagina} https://hanyangclarence.github.io/unimumo_demo/.
English
We introduce UniMuMo, a unified multimodal model capable of taking arbitrary text, music, and motion data as input conditions to generate outputs across all three modalities. To address the lack of time-synchronized data, we align unpaired music and motion data based on rhythmic patterns to leverage existing large-scale music-only and motion-only datasets. By converting music, motion, and text into token-based representation, our model bridges these modalities through a unified encoder-decoder transformer architecture. To support multiple generation tasks within a single framework, we introduce several architectural improvements. We propose encoding motion with a music codebook, mapping motion into the same feature space as music. We introduce a music-motion parallel generation scheme that unifies all music and motion generation tasks into a single transformer decoder architecture with a single training task of music-motion joint generation. Moreover, the model is designed by fine-tuning existing pre-trained single-modality models, significantly reducing computational demands. Extensive experiments demonstrate that UniMuMo achieves competitive results on all unidirectional generation benchmarks across music, motion, and text modalities. Quantitative results are available in the https://hanyangclarence.github.io/unimumo_demo/{project page}.

Summary

AI-Generated Summary

PDF192November 16, 2024