ChatPaper.aiChatPaper

Tango 2: Выравнивание генерации текста в аудио на основе диффузии через прямую оптимизацию предпочтений

Tango 2: Aligning Diffusion-based Text-to-Audio Generations through Direct Preference Optimization

April 15, 2024
Авторы: Navonil Majumder, Chia-Yu Hung, Deepanway Ghosal, Wei-Ning Hsu, Rada Mihalcea, Soujanya Poria
cs.AI

Аннотация

Генеративный мультимодальный контент становится все более распространенным в области создания контента, поскольку он имеет потенциал позволить художникам и медийному персоналу создавать макеты предпроизводства, быстро воплощая свои идеи в жизнь. Генерация звука из текстовых подсказок является важным аспектом таких процессов в музыкальной и кинематографической индустрии. Многие из недавних моделей текст-в-аудио на основе диффузии фокусируются на обучении все более сложных моделей диффузии на большом наборе данных пар подсказка-аудио. Эти модели не фокусируются явно на наличии концепций или событий и их временном порядке в выходном аудио относительно входной подсказки. Наша гипотеза заключается в том, что фокусировка на том, как эти аспекты генерации аудио могут улучшить производительность генерации аудио в условиях ограниченных данных. Таким образом, в данной работе, используя существующую модель текст-в-аудио Tango, мы синтетически создаем набор данных предпочтений, где каждая подсказка имеет победный аудиовыход и несколько проигрышных аудиовыходов для обучения модели диффузии. Проигрышные выходы, теоретически, имеют некоторые концепции из подсказки, отсутствующие или в неправильном порядке. Мы донастраиваем общедоступную модель текст-в-аудио Tango, используя потерю диффузии-DPO (прямая оптимизация предпочтений) на нашем наборе данных предпочтений и показываем, что это приводит к улучшению аудиовыхода по сравнению с Tango и AudioLDM2, как по автоматическим, так и по ручным метрикам оценки.
English
Generative multimodal content is increasingly prevalent in much of the content creation arena, as it has the potential to allow artists and media personnel to create pre-production mockups by quickly bringing their ideas to life. The generation of audio from text prompts is an important aspect of such processes in the music and film industry. Many of the recent diffusion-based text-to-audio models focus on training increasingly sophisticated diffusion models on a large set of datasets of prompt-audio pairs. These models do not explicitly focus on the presence of concepts or events and their temporal ordering in the output audio with respect to the input prompt. Our hypothesis is focusing on how these aspects of audio generation could improve audio generation performance in the presence of limited data. As such, in this work, using an existing text-to-audio model Tango, we synthetically create a preference dataset where each prompt has a winner audio output and some loser audio outputs for the diffusion model to learn from. The loser outputs, in theory, have some concepts from the prompt missing or in an incorrect order. We fine-tune the publicly available Tango text-to-audio model using diffusion-DPO (direct preference optimization) loss on our preference dataset and show that it leads to improved audio output over Tango and AudioLDM2, in terms of both automatic- and manual-evaluation metrics.

Summary

AI-Generated Summary

PDF120December 15, 2024