ChatPaper.aiChatPaper

JAM: Ein winziger Flow-basierter Song-Generator mit fein abgestufter Steuerbarkeit und ästhetischer Ausrichtung

JAM: A Tiny Flow-based Song Generator with Fine-grained Controllability and Aesthetic Alignment

July 28, 2025
papers.authors: Renhang Liu, Chia-Yu Hung, Navonil Majumder, Taylor Gautreaux, Amir Ali Bagherzadeh, Chuan Li, Dorien Herremans, Soujanya Poria
cs.AI

papers.abstract

Diffusions- und Flow-Matching-Modelle haben in jüngster Zeit die automatische Text-zu-Audio-Generierung revolutioniert. Diese Modelle sind zunehmend in der Lage, hochwertige und authentische Audioausgaben zu erzeugen, die Sprache und akustische Ereignisse präzise erfassen. Dennoch gibt es noch viel Verbesserungspotenzial bei der kreativen Audioerzeugung, die hauptsächlich Musik und Gesang umfasst. Aktuelle Open-Source-Lyrics-to-Song-Modelle wie DiffRhythm, ACE-Step und LeVo haben einen akzeptablen Standard in der automatischen Songgenerierung für den Freizeitgebrauch gesetzt. Allerdings fehlt diesen Modellen die fein abgestimmte Wort-Level-Kontrollierbarkeit, die Musiker oft in ihren Arbeitsabläufen wünschen. Nach unserem besten Wissen ist unser Flow-Matching-basiertes JAM der erste Ansatz, der Wort-Level-Timing und -Dauersteuerung in der Songgenerierung ermöglicht und somit eine präzise vokale Kontrolle bietet. Um die Qualität der generierten Songs zu verbessern und sie besser an menschliche Vorlieben anzupassen, implementieren wir ästhetische Ausrichtung durch Direct Preference Optimization, die das Modell iterativ mithilfe eines synthetischen Datensatzes verfeinert, ohne manuelle Datenannotationen zu benötigen. Darüber hinaus streben wir an, die Bewertung solcher Lyrics-to-Song-Modelle durch unseren öffentlichen Evaluationsdatensatz JAME zu standardisieren. Wir zeigen, dass JAM die bestehenden Modelle in Bezug auf musikbezogene Attribute übertrifft.
English
Diffusion and flow-matching models have revolutionized automatic text-to-audio generation in recent times. These models are increasingly capable of generating high quality and faithful audio outputs capturing to speech and acoustic events. However, there is still much room for improvement in creative audio generation that primarily involves music and songs. Recent open lyrics-to-song models, such as, DiffRhythm, ACE-Step, and LeVo, have set an acceptable standard in automatic song generation for recreational use. However, these models lack fine-grained word-level controllability often desired by musicians in their workflows. To the best of our knowledge, our flow-matching-based JAM is the first effort toward endowing word-level timing and duration control in song generation, allowing fine-grained vocal control. To enhance the quality of generated songs to better align with human preferences, we implement aesthetic alignment through Direct Preference Optimization, which iteratively refines the model using a synthetic dataset, eliminating the need or manual data annotations. Furthermore, we aim to standardize the evaluation of such lyrics-to-song models through our public evaluation dataset JAME. We show that JAM outperforms the existing models in terms of the music-specific attributes.
PDF72July 29, 2025