ChatPaper.aiChatPaper

ChatMusician: Comprendere e Generare Musica Intrinsecamente con LLM

ChatMusician: Understanding and Generating Music Intrinsically with LLM

February 25, 2024
Autori: Ruibin Yuan, Hanfeng Lin, Yi Wang, Zeyue Tian, Shangda Wu, Tianhao Shen, Ge Zhang, Yuhang Wu, Cong Liu, Ziya Zhou, Ziyang Ma, Liumeng Xue, Ziyu Wang, Qin Liu, Tianyu Zheng, Yizhi Li, Yinghao Ma, Yiming Liang, Xiaowei Chi, Ruibo Liu, Zili Wang, Pengfei Li, Jingcheng Wu, Chenghua Lin, Qifeng Liu, Tao Jiang, Wenhao Huang, Wenhu Chen, Emmanouil Benetos, Jie Fu, Gus Xia, Roger Dannenberg, Wei Xue, Shiyin Kang, Yike Guo
cs.AI

Abstract

Sebbene i Large Language Model (LLM) dimostrino capacità impressionanti nella generazione di testo, riscontriamo che la loro abilità non è ancora stata generalizzata alla musica, il linguaggio creativo dell'umanità. Introduciamo ChatMusician, un LLM open-source che integra capacità musicali intrinseche. Si basa su pre-addestramento continuo e fine-tuning di LLaMA2 su una rappresentazione musicale compatibile con il testo, la notazione ABC, dove la musica è trattata come una seconda lingua. ChatMusician può comprendere e generare musica utilizzando un tokenizer di testo puro, senza alcuna struttura neurale o tokenizer multimodale esterno. È interessante notare che dotare il modello di abilità musicali non compromette le capacità linguistiche, raggiungendo persino un punteggio MMLU leggermente più alto. Il nostro modello è in grado di comporre musica ben strutturata e di lunga durata, condizionata da testi, accordi, melodie, motivi, forme musicali, ecc., superando la baseline di GPT-4. Sul nostro benchmark curato meticolosamente per la comprensione musicale a livello universitario, MusicTheoryBench, ChatMusician supera LLaMA2 e GPT-3.5 in uno scenario zero-shot con un margine significativo. Il nostro lavoro rivela che i LLM possono essere un eccellente compressore per la musica, ma rimane ancora un territorio significativo da conquistare. Rilasciamo il nostro corpus musica-linguaggio da 4B token, MusicPile, il benchmark MusicTheoryBench raccolto, il codice, il modello e la demo su GitHub.
English
While Large Language Models (LLMs) demonstrate impressive capabilities in text generation, we find that their ability has yet to be generalized to music, humanity's creative language. We introduce ChatMusician, an open-source LLM that integrates intrinsic musical abilities. It is based on continual pre-training and finetuning LLaMA2 on a text-compatible music representation, ABC notation, and the music is treated as a second language. ChatMusician can understand and generate music with a pure text tokenizer without any external multi-modal neural structures or tokenizers. Interestingly, endowing musical abilities does not harm language abilities, even achieving a slightly higher MMLU score. Our model is capable of composing well-structured, full-length music, conditioned on texts, chords, melodies, motifs, musical forms, etc, surpassing GPT-4 baseline. On our meticulously curated college-level music understanding benchmark, MusicTheoryBench, ChatMusician surpasses LLaMA2 and GPT-3.5 on zero-shot setting by a noticeable margin. Our work reveals that LLMs can be an excellent compressor for music, but there remains significant territory to be conquered. We release our 4B token music-language corpora MusicPile, the collected MusicTheoryBench, code, model and demo in GitHub.
PDF602December 15, 2024