ChatMusician: Понимание и генерация музыки на основе внутренних механизмов языковых моделейChatMusician: Understanding and Generating Music Intrinsically with LLM
Хотя крупные языковые модели (LLM) демонстрируют впечатляющие способности в генерации текста, мы обнаружили, что их возможности еще не были обобщены на музыку — творческий язык человечества. Мы представляем ChatMusician, открытую LLM, которая интегрирует встроенные музыкальные способности. Она основана на непрерывном предварительном обучении и тонкой настройке LLaMA2 на текстово-совместимом музыкальном представлении — нотации ABC, где музыка рассматривается как второй язык. ChatMusician может понимать и генерировать музыку с использованием чистого текстового токенизатора без каких-либо внешних мультимодальных нейронных структур или токенизаторов. Интересно, что наделение музыкальными способностями не ухудшает языковые возможности, даже слегка повышая оценку MMLU. Наша модель способна сочинять хорошо структурированную, полноценную музыку, основываясь на текстах, аккордах, мелодиях, мотивах, музыкальных формах и т.д., превосходя базовый уровень GPT-4. На нашем тщательно разработанном бенчмарке для понимания музыки на уровне колледжа, MusicTheoryBench, ChatMusician значительно опережает LLaMA2 и GPT-3.5 в условиях zero-shot. Наша работа показывает, что LLM могут быть отличным компрессором для музыки, но остается значительная территория для освоения. Мы публикуем наш корпус музыки и языка объемом 4B токенов MusicPile, собранный MusicTheoryBench, код, модель и демо на GitHub.