ChatMusician: Muziek Intrinsiek Begrijpen en Genereren met LLM
ChatMusician: Understanding and Generating Music Intrinsically with LLM
February 25, 2024
Auteurs: Ruibin Yuan, Hanfeng Lin, Yi Wang, Zeyue Tian, Shangda Wu, Tianhao Shen, Ge Zhang, Yuhang Wu, Cong Liu, Ziya Zhou, Ziyang Ma, Liumeng Xue, Ziyu Wang, Qin Liu, Tianyu Zheng, Yizhi Li, Yinghao Ma, Yiming Liang, Xiaowei Chi, Ruibo Liu, Zili Wang, Pengfei Li, Jingcheng Wu, Chenghua Lin, Qifeng Liu, Tao Jiang, Wenhao Huang, Wenhu Chen, Emmanouil Benetos, Jie Fu, Gus Xia, Roger Dannenberg, Wei Xue, Shiyin Kang, Yike Guo
cs.AI
Samenvatting
Hoewel grote taalmmodellen (LLM's) indrukwekkende mogelijkheden demonstreren in tekstgeneratie, blijkt dat hun vermogen nog niet is gegeneraliseerd naar muziek, de creatieve taal van de mensheid. Wij introduceren ChatMusician, een open-source LLM dat intrinsieke muzikale vaardigheden integreert. Het is gebaseerd op voortdurende voorafgaande training en finetuning van LLaMA2 op een tekstcompatibele muziekrepresentatie, ABC-notatie, waarbij muziek wordt behandeld als een tweede taal. ChatMusician kan muziek begrijpen en genereren met een pure teksttokenizer, zonder externe multimodale neurale structuren of tokenizers. Interessant is dat het toekennen van muzikale vaardigheden de taalvaardigheden niet schaadt, en zelfs een iets hogere MMLU-score bereikt. Ons model is in staat om goed gestructureerde, volledige muziek te componeren, gebaseerd op teksten, akkoorden, melodieën, motieven, muzikale vormen, etc., en overtreft daarbij de GPT-4-baseline. Op ons zorgvuldig samengestelde, universitair niveau muziekbegrip benchmark, MusicTheoryBench, overtreft ChatMusician LLaMA2 en GPT-3.5 in een zero-shot setting met een aanzienlijke marge. Ons werk toont aan dat LLM's een uitstekende compressor voor muziek kunnen zijn, maar dat er nog aanzienlijk terrein te veroveren valt. We geven onze 4B token muziek-taalcorpora MusicPile, de verzamelde MusicTheoryBench, code, model en demo vrij op GitHub.
English
While Large Language Models (LLMs) demonstrate impressive capabilities in
text generation, we find that their ability has yet to be generalized to music,
humanity's creative language. We introduce ChatMusician, an open-source LLM
that integrates intrinsic musical abilities. It is based on continual
pre-training and finetuning LLaMA2 on a text-compatible music representation,
ABC notation, and the music is treated as a second language. ChatMusician can
understand and generate music with a pure text tokenizer without any external
multi-modal neural structures or tokenizers. Interestingly, endowing musical
abilities does not harm language abilities, even achieving a slightly higher
MMLU score. Our model is capable of composing well-structured, full-length
music, conditioned on texts, chords, melodies, motifs, musical forms, etc,
surpassing GPT-4 baseline. On our meticulously curated college-level music
understanding benchmark, MusicTheoryBench, ChatMusician surpasses LLaMA2 and
GPT-3.5 on zero-shot setting by a noticeable margin. Our work reveals that LLMs
can be an excellent compressor for music, but there remains significant
territory to be conquered. We release our 4B token music-language corpora
MusicPile, the collected MusicTheoryBench, code, model and demo in GitHub.