Tango 2: Allineamento delle generazioni testo-audio basate su diffusione attraverso l'ottimizzazione diretta delle preferenze
Tango 2: Aligning Diffusion-based Text-to-Audio Generations through Direct Preference Optimization
April 15, 2024
Autori: Navonil Majumder, Chia-Yu Hung, Deepanway Ghosal, Wei-Ning Hsu, Rada Mihalcea, Soujanya Poria
cs.AI
Abstract
Il contenuto generativo multimodale è sempre più diffuso nell'ambito della creazione di contenuti, poiché ha il potenziale di permettere ad artisti e professionisti dei media di realizzare mockup di pre-produzione, dando rapidamente vita alle loro idee. La generazione di audio a partire da prompt testuali rappresenta un aspetto cruciale di tali processi nell'industria musicale e cinematografica. Molti dei recenti modelli text-to-audio basati su diffusione si concentrano sull'addestramento di modelli di diffusione sempre più sofisticati su ampi set di dati di coppie prompt-audio. Questi modelli non si focalizzano esplicitamente sulla presenza di concetti o eventi e sul loro ordinamento temporale nell'audio generato rispetto al prompt di input. La nostra ipotesi è che concentrarsi su questi aspetti della generazione audio potrebbe migliorare le prestazioni in presenza di dati limitati. Pertanto, in questo lavoro, utilizzando un modello text-to-audio esistente chiamato Tango, creiamo sinteticamente un dataset di preferenze in cui ogni prompt ha un output audio vincente e alcuni output audio perdenti, da cui il modello di diffusione può apprendere. In teoria, gli output perdenti presentano alcuni concetti mancanti o in un ordine errato rispetto al prompt. Ottimizziamo il modello Tango text-to-audio disponibile pubblicamente utilizzando la loss diffusion-DPO (direct preference optimization) sul nostro dataset di preferenze e dimostriamo che ciò porta a un miglioramento dell'output audio rispetto a Tango e AudioLDM2, sia in termini di metriche di valutazione automatiche che manuali.
English
Generative multimodal content is increasingly prevalent in much of the
content creation arena, as it has the potential to allow artists and media
personnel to create pre-production mockups by quickly bringing their ideas to
life. The generation of audio from text prompts is an important aspect of such
processes in the music and film industry. Many of the recent diffusion-based
text-to-audio models focus on training increasingly sophisticated diffusion
models on a large set of datasets of prompt-audio pairs. These models do not
explicitly focus on the presence of concepts or events and their temporal
ordering in the output audio with respect to the input prompt. Our hypothesis
is focusing on how these aspects of audio generation could improve audio
generation performance in the presence of limited data. As such, in this work,
using an existing text-to-audio model Tango, we synthetically create a
preference dataset where each prompt has a winner audio output and some loser
audio outputs for the diffusion model to learn from. The loser outputs, in
theory, have some concepts from the prompt missing or in an incorrect order. We
fine-tune the publicly available Tango text-to-audio model using diffusion-DPO
(direct preference optimization) loss on our preference dataset and show that
it leads to improved audio output over Tango and AudioLDM2, in terms of both
automatic- and manual-evaluation metrics.