ChatPaper.aiChatPaper

ChatMusician: Compreendendo e Gerando Música Intrinsecamente com LLM

ChatMusician: Understanding and Generating Music Intrinsically with LLM

February 25, 2024
Autores: Ruibin Yuan, Hanfeng Lin, Yi Wang, Zeyue Tian, Shangda Wu, Tianhao Shen, Ge Zhang, Yuhang Wu, Cong Liu, Ziya Zhou, Ziyang Ma, Liumeng Xue, Ziyu Wang, Qin Liu, Tianyu Zheng, Yizhi Li, Yinghao Ma, Yiming Liang, Xiaowei Chi, Ruibo Liu, Zili Wang, Pengfei Li, Jingcheng Wu, Chenghua Lin, Qifeng Liu, Tao Jiang, Wenhao Huang, Wenhu Chen, Emmanouil Benetos, Jie Fu, Gus Xia, Roger Dannenberg, Wei Xue, Shiyin Kang, Yike Guo
cs.AI

Resumo

Embora os Modelos de Linguagem de Grande Escala (LLMs) demonstrem capacidades impressionantes na geração de texto, observamos que sua habilidade ainda não foi generalizada para a música, a linguagem criativa da humanidade. Apresentamos o ChatMusician, um LLM de código aberto que integra habilidades musicais intrínsecas. Ele é baseado no pré-treinamento contínuo e no ajuste fino do LLaMA2 em uma representação musical compatível com texto, a notação ABC, onde a música é tratada como um segundo idioma. O ChatMusician pode entender e gerar música com um tokenizador de texto puro, sem a necessidade de estruturas neurais multimodais ou tokenizadores externos. Curiosamente, a incorporação de habilidades musicais não prejudica as habilidades linguísticas, alcançando até mesmo uma pontuação ligeiramente superior no MMLU. Nosso modelo é capaz de compor músicas bem estruturadas e de longa duração, condicionadas a textos, acordes, melodias, motivos, formas musicais, etc., superando a linha de base do GPT-4. Em nosso benchmark meticulosamente elaborado para o entendimento musical em nível universitário, o MusicTheoryBench, o ChatMusician supera o LLaMA2 e o GPT-3.5 em configuração zero-shot por uma margem considerável. Nosso trabalho revela que os LLMs podem ser excelentes compressores de música, mas ainda há um território significativo a ser conquistado. Disponibilizamos nosso corpus de linguagem musical de 4B tokens, o MusicPile, o MusicTheoryBench coletado, código, modelo e demonstração no GitHub.
English
While Large Language Models (LLMs) demonstrate impressive capabilities in text generation, we find that their ability has yet to be generalized to music, humanity's creative language. We introduce ChatMusician, an open-source LLM that integrates intrinsic musical abilities. It is based on continual pre-training and finetuning LLaMA2 on a text-compatible music representation, ABC notation, and the music is treated as a second language. ChatMusician can understand and generate music with a pure text tokenizer without any external multi-modal neural structures or tokenizers. Interestingly, endowing musical abilities does not harm language abilities, even achieving a slightly higher MMLU score. Our model is capable of composing well-structured, full-length music, conditioned on texts, chords, melodies, motifs, musical forms, etc, surpassing GPT-4 baseline. On our meticulously curated college-level music understanding benchmark, MusicTheoryBench, ChatMusician surpasses LLaMA2 and GPT-3.5 on zero-shot setting by a noticeable margin. Our work reveals that LLMs can be an excellent compressor for music, but there remains significant territory to be conquered. We release our 4B token music-language corpora MusicPile, the collected MusicTheoryBench, code, model and demo in GitHub.
PDF602December 15, 2024