ChatPaper.aiChatPaper

M^{2}UGen: Compreensão e Geração de Música Multimodal com o Poder dos Modelos de Linguagem de Grande Escala

M^{2}UGen: Multi-modal Music Understanding and Generation with the Power of Large Language Models

November 19, 2023
Autores: Atin Sakkeer Hussain, Shansong Liu, Chenshuo Sun, Ying Shan
cs.AI

Resumo

O cenário atual de pesquisa que utiliza grandes modelos de linguagem (LLMs, na sigla em inglês) está passando por um crescimento significativo. Muitos trabalhos aproveitam as poderosas capacidades de raciocínio desses modelos para compreender várias modalidades, como texto, fala, imagens, vídeos, entre outros. Eles também utilizam LLMs para entender a intenção humana e gerar saídas desejadas, como imagens, vídeos e música. No entanto, pesquisas que combinam tanto a compreensão quanto a geração usando LLMs ainda são limitadas e estão em estágio inicial. Para abordar essa lacuna, introduzimos um framework de Compreensão e Geração de Música Multimodal (M^{2}UGen) que integra as habilidades dos LLMs para compreender e gerar música em diferentes modalidades. O framework M^{2}UGen foi projetado especificamente para desbloquear o potencial criativo a partir de diversas fontes de inspiração, abrangendo música, imagem e vídeo, por meio do uso dos modelos pré-treinados MERT, ViT e ViViT, respectivamente. Para possibilitar a geração de música, exploramos o uso do AudioLDM 2 e do MusicGen. A ponte entre a compreensão multimodal e a geração de música é realizada por meio da integração do modelo LLaMA 2. Além disso, utilizamos o modelo MU-LLaMA para gerar extensos conjuntos de dados que suportam a geração de música a partir de texto/imagem/vídeo, facilitando o treinamento do nosso framework M^{2}UGen. Realizamos uma avaliação detalhada do framework proposto. Os resultados experimentais demonstram que nosso modelo alcança ou supera o desempenho dos modelos state-of-the-art atuais.
English
The current landscape of research leveraging large language models (LLMs) is experiencing a surge. Many works harness the powerful reasoning capabilities of these models to comprehend various modalities, such as text, speech, images, videos, etc. They also utilize LLMs to understand human intention and generate desired outputs like images, videos, and music. However, research that combines both understanding and generation using LLMs is still limited and in its nascent stage. To address this gap, we introduce a Multi-modal Music Understanding and Generation (M^{2}UGen) framework that integrates LLM's abilities to comprehend and generate music for different modalities. The M^{2}UGen framework is purpose-built to unlock creative potential from diverse sources of inspiration, encompassing music, image, and video through the use of pretrained MERT, ViT, and ViViT models, respectively. To enable music generation, we explore the use of AudioLDM 2 and MusicGen. Bridging multi-modal understanding and music generation is accomplished through the integration of the LLaMA 2 model. Furthermore, we make use of the MU-LLaMA model to generate extensive datasets that support text/image/video-to-music generation, facilitating the training of our M^{2}UGen framework. We conduct a thorough evaluation of our proposed framework. The experimental results demonstrate that our model achieves or surpasses the performance of the current state-of-the-art models.
PDF61December 15, 2024