Tango 2: Ausrichtung von auf Diffusion basierenden Text-zu-Audio-Generierungen durch direkte Präferenzoptimierung
Tango 2: Aligning Diffusion-based Text-to-Audio Generations through Direct Preference Optimization
April 15, 2024
Autoren: Navonil Majumder, Chia-Yu Hung, Deepanway Ghosal, Wei-Ning Hsu, Rada Mihalcea, Soujanya Poria
cs.AI
Zusammenfassung
Generative multimodaler Inhalt ist zunehmend in vielen Bereichen der Inhalteerstellung verbreitet, da es Künstlern und Medienschaffenden ermöglicht, durch schnelles Umsetzen ihrer Ideen Vorproduktionsentwürfe zu erstellen. Die Generierung von Audio aus Texteingaben ist ein wichtiger Aspekt solcher Prozesse in der Musik- und Filmindustrie. Viele der neueren, auf Diffusion basierenden Text-zu-Audio-Modelle konzentrieren sich darauf, zunehmend anspruchsvolle Diffusionsmodelle auf einem großen Satz von Datensätzen von Eingabe-Audio-Paarungen zu trainieren. Diese Modelle konzentrieren sich nicht explizit auf die Präsenz von Konzepten oder Ereignissen und deren zeitliche Reihenfolge im Ausgabe-Audio in Bezug auf die Eingabeaufforderung. Unsere Hypothese besteht darin, wie diese Aspekte der Audioerzeugung die Leistung der Audioerzeugung bei begrenzten Daten verbessern könnten. Daher erstellen wir in dieser Arbeit unter Verwendung eines vorhandenen Text-zu-Audio-Modells Tango einen Präferenzdatensatz, bei dem jeder Eingabe eine Gewinner-Ausgabe und einige Verlierer-Ausgaben für das Diffusionsmodell zum Lernen zugeordnet sind. Die Verliererausgaben weisen theoretisch einige fehlende Konzepte aus der Eingabe oder eine falsche Reihenfolge auf. Wir feinabstimmen das öffentlich verfügbare Tango Text-zu-Audio-Modell unter Verwendung des Diffusions-DPO (Direct Preference Optimization) Verlusts auf unserem Präferenzdatensatz und zeigen, dass dies zu einer verbesserten Audioausgabe im Vergleich zu Tango und AudioLDM2 führt, sowohl in automatischen als auch manuellen Auswertungsmetriken.
English
Generative multimodal content is increasingly prevalent in much of the
content creation arena, as it has the potential to allow artists and media
personnel to create pre-production mockups by quickly bringing their ideas to
life. The generation of audio from text prompts is an important aspect of such
processes in the music and film industry. Many of the recent diffusion-based
text-to-audio models focus on training increasingly sophisticated diffusion
models on a large set of datasets of prompt-audio pairs. These models do not
explicitly focus on the presence of concepts or events and their temporal
ordering in the output audio with respect to the input prompt. Our hypothesis
is focusing on how these aspects of audio generation could improve audio
generation performance in the presence of limited data. As such, in this work,
using an existing text-to-audio model Tango, we synthetically create a
preference dataset where each prompt has a winner audio output and some loser
audio outputs for the diffusion model to learn from. The loser outputs, in
theory, have some concepts from the prompt missing or in an incorrect order. We
fine-tune the publicly available Tango text-to-audio model using diffusion-DPO
(direct preference optimization) loss on our preference dataset and show that
it leads to improved audio output over Tango and AudioLDM2, in terms of both
automatic- and manual-evaluation metrics.Summary
AI-Generated Summary