ChatPaper.aiChatPaper

Vers une description audio diversifiée et efficace via des modèles de diffusion

Towards Diverse and Efficient Audio Captioning via Diffusion Models

September 14, 2024
Auteurs: Manjie Xu, Chenxing Li, Xinyi Tu, Yong Ren, Ruibo Fu, Wei Liang, Dong Yu
cs.AI

Résumé

Nous présentons la Description Audio par Diffusion (DAC), un modèle de diffusion non-autorégressif conçu pour la description audio diversifiée et efficace. Bien que les modèles de description existants reposant sur des structures linguistiques aient obtenu un succès remarquable dans diverses tâches de description, leurs performances insuffisantes en termes de vitesse de génération et de diversité entravent les progrès dans la compréhension audio et les applications multimédias. Notre cadre basé sur la diffusion offre des avantages uniques découlant de sa stochasticité inhérente et de sa modélisation contextuelle holistique dans la description. À travers une évaluation rigoureuse, nous démontrons que DAC atteint non seulement des niveaux de performance de pointe par rapport aux benchmarks existants en termes de qualité de la description, mais les surpasse également de manière significative en termes de vitesse et de diversité de génération. Le succès de DAC illustre que la génération de texte peut également être intégrée de manière transparente avec les tâches de génération audio et visuelle en utilisant une structure de diffusion, ouvrant la voie à un modèle génératif unifié lié à l'audio à travers différentes modalités.
English
We introduce Diffusion-based Audio Captioning (DAC), a non-autoregressive diffusion model tailored for diverse and efficient audio captioning. Although existing captioning models relying on language backbones have achieved remarkable success in various captioning tasks, their insufficient performance in terms of generation speed and diversity impede progress in audio understanding and multimedia applications. Our diffusion-based framework offers unique advantages stemming from its inherent stochasticity and holistic context modeling in captioning. Through rigorous evaluation, we demonstrate that DAC not only achieves SOTA performance levels compared to existing benchmarks in the caption quality, but also significantly outperforms them in terms of generation speed and diversity. The success of DAC illustrates that text generation can also be seamlessly integrated with audio and visual generation tasks using a diffusion backbone, paving the way for a unified, audio-related generative model across different modalities.

Summary

AI-Generated Summary

PDF73November 16, 2024