ChatPaper.aiChatPaper

AudioLDM 2: Aprendizaje de Generación de Audio Holística con Pretrenamiento Autosupervisado

AudioLDM 2: Learning Holistic Audio Generation with Self-supervised Pretraining

August 10, 2023
Autores: Haohe Liu, Qiao Tian, Yi Yuan, Xubo Liu, Xinhao Mei, Qiuqiang Kong, Yuping Wang, Wenwu Wang, Yuxuan Wang, Mark D. Plumbley
cs.AI

Resumen

Aunque la generación de audio comparte similitudes entre diferentes tipos de audio, como el habla, la música y los efectos de sonido, diseñar modelos para cada tipo requiere una consideración cuidadosa de objetivos y sesgos específicos que pueden diferir significativamente de los de otros tipos. Para acercarnos a una perspectiva unificada de la generación de audio, este artículo propone un marco que utiliza el mismo método de aprendizaje para la generación de habla, música y efectos de sonido. Nuestro marco introduce una representación general del audio, llamada lenguaje de audio (LOA, por sus siglas en inglés). Cualquier audio puede traducirse a LOA basándose en AudioMAE, un modelo de aprendizaje de representaciones preentrenado de manera autosupervisada. En el proceso de generación, traducimos cualquier modalidad a LOA utilizando un modelo GPT-2 y realizamos un aprendizaje de generación de audio autosupervisado con un modelo de difusión latente condicionado por LOA. El marco propuesto aporta naturalmente ventajas como capacidades de aprendizaje en contexto y la reutilización de los modelos preentrenados autosupervisados AudioMAE y de difusión latente. Los experimentos en los principales puntos de referencia de texto-a-audio, texto-a-música y texto-a-habla demuestran un rendimiento nuevo y de vanguardia o competitivo en comparación con enfoques anteriores. Nuestra demostración y código están disponibles en https://audioldm.github.io/audioldm2.
English
Although audio generation shares commonalities across different types of audio, such as speech, music, and sound effects, designing models for each type requires careful consideration of specific objectives and biases that can significantly differ from those of other types. To bring us closer to a unified perspective of audio generation, this paper proposes a framework that utilizes the same learning method for speech, music, and sound effect generation. Our framework introduces a general representation of audio, called language of audio (LOA). Any audio can be translated into LOA based on AudioMAE, a self-supervised pre-trained representation learning model. In the generation process, we translate any modalities into LOA by using a GPT-2 model, and we perform self-supervised audio generation learning with a latent diffusion model conditioned on LOA. The proposed framework naturally brings advantages such as in-context learning abilities and reusable self-supervised pretrained AudioMAE and latent diffusion models. Experiments on the major benchmarks of text-to-audio, text-to-music, and text-to-speech demonstrate new state-of-the-art or competitive performance to previous approaches. Our demo and code are available at https://audioldm.github.io/audioldm2.
PDF371December 15, 2024