ChatPaper.aiChatPaper

YuE: Escalonando Modelos de Base Abertos para Geração de Música de Longa Duração

YuE: Scaling Open Foundation Models for Long-Form Music Generation

March 11, 2025
Autores: Ruibin Yuan, Hanfeng Lin, Shuyue Guo, Ge Zhang, Jiahao Pan, Yongyi Zang, Haohe Liu, Yiming Liang, Wenye Ma, Xingjian Du, Xinrun Du, Zhen Ye, Tianyu Zheng, Yinghao Ma, Minghao Liu, Zeyue Tian, Ziya Zhou, Liumeng Xue, Xingwei Qu, Yizhi Li, Shangda Wu, Tianhao Shen, Ziyang Ma, Jun Zhan, Chunhui Wang, Yatian Wang, Xiaowei Chi, Xinyue Zhang, Zhenzhu Yang, Xiangzhou Wang, Shansong Liu, Lingrui Mei, Peng Li, Junjie Wang, Jianwei Yu, Guojian Pang, Xu Li, Zihao Wang, Xiaohuan Zhou, Lijun Yu, Emmanouil Benetos, Yong Chen, Chenghua Lin, Xie Chen, Gus Xia, Zhaoxiang Zhang, Chao Zhang, Wenhu Chen, Xinyu Zhou, Xipeng Qiu, Roger Dannenberg, Jiaheng Liu, Jian Yang, Wenhao Huang, Wei Xue, Xu Tan, Yike Guo
cs.AI

Resumo

Abordamos a tarefa de geração de música de longa duração—especificamente o desafiador problema de letra-para-música—introduzindo YuE, uma família de modelos de base abertos baseados na arquitetura LLaMA2. Especificamente, YuE escala para trilhões de tokens e gera até cinco minutos de música, mantendo alinhamento lírico, estrutura musical coerente e melodias vocais envolventes com acompanhamento apropriado. Isso é alcançado através de (1) previsão de próximo token desacoplada por faixa para superar sinais de mistura densa, (2) condicionamento progressivo estrutural para alinhamento lírico de contexto longo, e (3) uma receita de pré-treinamento multitarefa e multifásica para convergência e generalização. Além disso, redesenhamos a técnica de aprendizado em contexto para geração de música, permitindo transferência de estilo versátil (por exemplo, converter city pop japonês em um rap em inglês, preservando o acompanhamento original) e geração bidirecional. Por meio de avaliação extensiva, demonstramos que YuE iguala ou até supera alguns dos sistemas proprietários em musicalidade e agilidade vocal. Adicionalmente, o ajuste fino do YuE permite controles adicionais e suporte aprimorado para idiomas de nicho. Além disso, além da geração, mostramos que as representações aprendidas pelo YuE podem ter um bom desempenho em tarefas de compreensão musical, onde os resultados do YuE igualam ou superam métodos state-of-the-art no benchmark MARBLE. Palavras-chave: letra-para-música, geração de música, longa duração, modelo de base, geração musical.
English
We tackle the task of long-form music generation--particularly the challenging lyrics-to-song problem--by introducing YuE, a family of open foundation models based on the LLaMA2 architecture. Specifically, YuE scales to trillions of tokens and generates up to five minutes of music while maintaining lyrical alignment, coherent musical structure, and engaging vocal melodies with appropriate accompaniment. It achieves this through (1) track-decoupled next-token prediction to overcome dense mixture signals, (2) structural progressive conditioning for long-context lyrical alignment, and (3) a multitask, multiphase pre-training recipe to converge and generalize. In addition, we redesign the in-context learning technique for music generation, enabling versatile style transfer (e.g., converting Japanese city pop into an English rap while preserving the original accompaniment) and bidirectional generation. Through extensive evaluation, we demonstrate that YuE matches or even surpasses some of the proprietary systems in musicality and vocal agility. In addition, fine-tuning YuE enables additional controls and enhanced support for tail languages. Furthermore, beyond generation, we show that YuE's learned representations can perform well on music understanding tasks, where the results of YuE match or exceed state-of-the-art methods on the MARBLE benchmark. Keywords: lyrics2song, song generation, long-form, foundation model, music generation

Summary

AI-Generated Summary

PDF642March 12, 2025