Tango 2: Afstemming van diffusiegebaseerde tekst-naar-audio-generaties via Direct Preference Optimization
Tango 2: Aligning Diffusion-based Text-to-Audio Generations through Direct Preference Optimization
April 15, 2024
Auteurs: Navonil Majumder, Chia-Yu Hung, Deepanway Ghosal, Wei-Ning Hsu, Rada Mihalcea, Soujanya Poria
cs.AI
Samenvatting
Generatieve multimodale inhoud wordt steeds gebruikelijker in een groot deel van het contentcreatieveld, omdat het de potentie heeft om kunstenaars en mediamedewerkers in staat te stellen pre-productie mockups te maken door hun ideeën snel tot leven te brengen. Het genereren van audio op basis van tekstprompts is een belangrijk aspect van dergelijke processen in de muziek- en filmindustrie. Veel van de recente op diffusie gebaseerde tekst-naar-audio-modellen richten zich op het trainen van steeds geavanceerdere diffusiemodellen op een grote set datasets van prompt-audio-paren. Deze modellen richten zich niet expliciet op de aanwezigheid van concepten of gebeurtenissen en hun temporele volgorde in de uitvoeraudio ten opzichte van de invoerprompt. Onze hypothese is dat het focussen op deze aspecten van audiogeneratie de prestaties van audiogeneratie zou kunnen verbeteren bij beperkte data. Daarom creëren we in dit werk, met behulp van een bestaand tekst-naar-audio-model Tango, synthetisch een voorkeursdataset waarbij elke prompt een winnaar-audio-uitvoer en enkele verliezer-audio-uitvoeren heeft waar het diffusiemodel van kan leren. De verliezer-uitvoeren hebben in theorie enkele concepten uit de prompt gemist of in een verkeerde volgorde. We fine-tunen het publiek beschikbare Tango tekst-naar-audio-model met behulp van diffusie-DPO (direct preference optimization) verlies op onze voorkeursdataset en laten zien dat dit leidt tot verbeterde audio-uitvoer ten opzichte van Tango en AudioLDM2, zowel in termen van automatische als handmatige evaluatiemetrics.
English
Generative multimodal content is increasingly prevalent in much of the
content creation arena, as it has the potential to allow artists and media
personnel to create pre-production mockups by quickly bringing their ideas to
life. The generation of audio from text prompts is an important aspect of such
processes in the music and film industry. Many of the recent diffusion-based
text-to-audio models focus on training increasingly sophisticated diffusion
models on a large set of datasets of prompt-audio pairs. These models do not
explicitly focus on the presence of concepts or events and their temporal
ordering in the output audio with respect to the input prompt. Our hypothesis
is focusing on how these aspects of audio generation could improve audio
generation performance in the presence of limited data. As such, in this work,
using an existing text-to-audio model Tango, we synthetically create a
preference dataset where each prompt has a winner audio output and some loser
audio outputs for the diffusion model to learn from. The loser outputs, in
theory, have some concepts from the prompt missing or in an incorrect order. We
fine-tune the publicly available Tango text-to-audio model using diffusion-DPO
(direct preference optimization) loss on our preference dataset and show that
it leads to improved audio output over Tango and AudioLDM2, in terms of both
automatic- and manual-evaluation metrics.