ChatPaper.aiChatPaper

Tango 2: Alineación de generaciones de texto a audio basadas en difusión mediante optimización directa de preferencias

Tango 2: Aligning Diffusion-based Text-to-Audio Generations through Direct Preference Optimization

April 15, 2024
Autores: Navonil Majumder, Chia-Yu Hung, Deepanway Ghosal, Wei-Ning Hsu, Rada Mihalcea, Soujanya Poria
cs.AI

Resumen

El contenido multimodal generativo es cada vez más prevalente en gran parte del ámbito de la creación de contenido, ya que tiene el potencial de permitir a artistas y profesionales de los medios crear maquetas de preproducción al dar vida rápidamente a sus ideas. La generación de audio a partir de indicaciones de texto es un aspecto importante de estos procesos en la industria de la música y el cine. Muchos de los modelos recientes basados en difusión para convertir texto en audio se centran en entrenar modelos de difusión cada vez más sofisticados en un gran conjunto de datos de pares de indicaciones-audio. Estos modelos no se enfocan explícitamente en la presencia de conceptos o eventos y su orden temporal en el audio de salida con respecto a la indicación de entrada. Nuestra hipótesis es que centrarse en estos aspectos de la generación de audio podría mejorar el rendimiento de la generación de audio en presencia de datos limitados. Por ello, en este trabajo, utilizando un modelo existente de texto a audio llamado Tango, creamos sintéticamente un conjunto de datos de preferencias donde cada indicación tiene una salida de audio ganadora y algunas salidas de audio perdedoras para que el modelo de difusión aprenda de ellas. En teoría, las salidas perdedoras tienen algunos conceptos de la indicación ausentes o en un orden incorrecto. Ajustamos el modelo de texto a audio Tango, disponible públicamente, utilizando la pérdida de optimización directa de preferencias (diffusion-DPO) en nuestro conjunto de datos de preferencias y demostramos que esto conduce a una mejora en la salida de audio en comparación con Tango y AudioLDM2, tanto en términos de métricas de evaluación automática como manual.
English
Generative multimodal content is increasingly prevalent in much of the content creation arena, as it has the potential to allow artists and media personnel to create pre-production mockups by quickly bringing their ideas to life. The generation of audio from text prompts is an important aspect of such processes in the music and film industry. Many of the recent diffusion-based text-to-audio models focus on training increasingly sophisticated diffusion models on a large set of datasets of prompt-audio pairs. These models do not explicitly focus on the presence of concepts or events and their temporal ordering in the output audio with respect to the input prompt. Our hypothesis is focusing on how these aspects of audio generation could improve audio generation performance in the presence of limited data. As such, in this work, using an existing text-to-audio model Tango, we synthetically create a preference dataset where each prompt has a winner audio output and some loser audio outputs for the diffusion model to learn from. The loser outputs, in theory, have some concepts from the prompt missing or in an incorrect order. We fine-tune the publicly available Tango text-to-audio model using diffusion-DPO (direct preference optimization) loss on our preference dataset and show that it leads to improved audio output over Tango and AudioLDM2, in terms of both automatic- and manual-evaluation metrics.

Summary

AI-Generated Summary

PDF120December 15, 2024