JAM: Um Pequeno Gerador de Músicas Baseado em Fluxo com Controle de Granularidade Fina e Alinhamento Estético
JAM: A Tiny Flow-based Song Generator with Fine-grained Controllability and Aesthetic Alignment
July 28, 2025
Autores: Renhang Liu, Chia-Yu Hung, Navonil Majumder, Taylor Gautreaux, Amir Ali Bagherzadeh, Chuan Li, Dorien Herremans, Soujanya Poria
cs.AI
Resumo
Modelos de difusão e correspondência de fluxo revolucionaram a geração automática de áudio a partir de texto nos últimos tempos. Esses modelos são cada vez mais capazes de gerar saídas de áudio de alta qualidade e fidedignas, capturando fala e eventos acústicos. No entanto, ainda há muito espaço para melhorias na geração criativa de áudio que envolve principalmente música e canções. Modelos recentes de letra-para-música de código aberto, como DiffRhythm, ACE-Step e LeVo, estabeleceram um padrão aceitável na geração automática de músicas para uso recreativo. No entanto, esses modelos carecem de controlabilidade em nível de palavra, frequentemente desejada por músicos em seus fluxos de trabalho. Até onde sabemos, nosso modelo JAM, baseado em correspondência de fluxo, é o primeiro esforço para fornecer controle de tempo e duração em nível de palavra na geração de músicas, permitindo um controle vocal refinado. Para melhorar a qualidade das músicas geradas e alinhá-las melhor com as preferências humanas, implementamos o alinhamento estético por meio de Otimização Direta de Preferência, que refina iterativamente o modelo usando um conjunto de dados sintético, eliminando a necessidade de anotações manuais de dados. Além disso, buscamos padronizar a avaliação de tais modelos de letra-para-música por meio de nosso conjunto de dados de avaliação público, JAME. Demonstramos que o JAM supera os modelos existentes em termos de atributos específicos da música.
English
Diffusion and flow-matching models have revolutionized automatic
text-to-audio generation in recent times. These models are increasingly capable
of generating high quality and faithful audio outputs capturing to speech and
acoustic events. However, there is still much room for improvement in creative
audio generation that primarily involves music and songs. Recent open
lyrics-to-song models, such as, DiffRhythm, ACE-Step, and LeVo, have set an
acceptable standard in automatic song generation for recreational use. However,
these models lack fine-grained word-level controllability often desired by
musicians in their workflows. To the best of our knowledge, our
flow-matching-based JAM is the first effort toward endowing word-level timing
and duration control in song generation, allowing fine-grained vocal control.
To enhance the quality of generated songs to better align with human
preferences, we implement aesthetic alignment through Direct Preference
Optimization, which iteratively refines the model using a synthetic dataset,
eliminating the need or manual data annotations. Furthermore, we aim to
standardize the evaluation of such lyrics-to-song models through our public
evaluation dataset JAME. We show that JAM outperforms the existing models in
terms of the music-specific attributes.