ChatPaper.aiChatPaper

ChatMusician: Понимание и генерация музыки на основе внутренних механизмов языковых моделей

ChatMusician: Understanding and Generating Music Intrinsically with LLM

February 25, 2024
Авторы: Ruibin Yuan, Hanfeng Lin, Yi Wang, Zeyue Tian, Shangda Wu, Tianhao Shen, Ge Zhang, Yuhang Wu, Cong Liu, Ziya Zhou, Ziyang Ma, Liumeng Xue, Ziyu Wang, Qin Liu, Tianyu Zheng, Yizhi Li, Yinghao Ma, Yiming Liang, Xiaowei Chi, Ruibo Liu, Zili Wang, Pengfei Li, Jingcheng Wu, Chenghua Lin, Qifeng Liu, Tao Jiang, Wenhao Huang, Wenhu Chen, Emmanouil Benetos, Jie Fu, Gus Xia, Roger Dannenberg, Wei Xue, Shiyin Kang, Yike Guo
cs.AI

Аннотация

Хотя крупные языковые модели (LLM) демонстрируют впечатляющие способности в генерации текста, мы обнаружили, что их возможности еще не были обобщены на музыку — творческий язык человечества. Мы представляем ChatMusician, открытую LLM, которая интегрирует встроенные музыкальные способности. Она основана на непрерывном предварительном обучении и тонкой настройке LLaMA2 на текстово-совместимом музыкальном представлении — нотации ABC, где музыка рассматривается как второй язык. ChatMusician может понимать и генерировать музыку с использованием чистого текстового токенизатора без каких-либо внешних мультимодальных нейронных структур или токенизаторов. Интересно, что наделение музыкальными способностями не ухудшает языковые возможности, даже слегка повышая оценку MMLU. Наша модель способна сочинять хорошо структурированную, полноценную музыку, основываясь на текстах, аккордах, мелодиях, мотивах, музыкальных формах и т.д., превосходя базовый уровень GPT-4. На нашем тщательно разработанном бенчмарке для понимания музыки на уровне колледжа, MusicTheoryBench, ChatMusician значительно опережает LLaMA2 и GPT-3.5 в условиях zero-shot. Наша работа показывает, что LLM могут быть отличным компрессором для музыки, но остается значительная территория для освоения. Мы публикуем наш корпус музыки и языка объемом 4B токенов MusicPile, собранный MusicTheoryBench, код, модель и демо на GitHub.
English
While Large Language Models (LLMs) demonstrate impressive capabilities in text generation, we find that their ability has yet to be generalized to music, humanity's creative language. We introduce ChatMusician, an open-source LLM that integrates intrinsic musical abilities. It is based on continual pre-training and finetuning LLaMA2 on a text-compatible music representation, ABC notation, and the music is treated as a second language. ChatMusician can understand and generate music with a pure text tokenizer without any external multi-modal neural structures or tokenizers. Interestingly, endowing musical abilities does not harm language abilities, even achieving a slightly higher MMLU score. Our model is capable of composing well-structured, full-length music, conditioned on texts, chords, melodies, motifs, musical forms, etc, surpassing GPT-4 baseline. On our meticulously curated college-level music understanding benchmark, MusicTheoryBench, ChatMusician surpasses LLaMA2 and GPT-3.5 on zero-shot setting by a noticeable margin. Our work reveals that LLMs can be an excellent compressor for music, but there remains significant territory to be conquered. We release our 4B token music-language corpora MusicPile, the collected MusicTheoryBench, code, model and demo in GitHub.
PDF612December 15, 2024