ChatPaper.aiChatPaper

Dialogues audio : Ensemble de données de dialogues pour la compréhension de l'audio et de la musique

Audio Dialogues: Dialogues dataset for audio and music understanding

April 11, 2024
Auteurs: Arushi Goel, Zhifeng Kong, Rafael Valle, Bryan Catanzaro
cs.AI

Résumé

Les ensembles de données existants pour la compréhension audio se concentrent principalement sur des interactions à tour unique (c'est-à-dire la description audio, la réponse à des questions sur l'audio) pour décrire l'audio en langage naturel, limitant ainsi la compréhension de l'audio via un dialogue interactif. Pour combler cette lacune, nous introduisons Audio Dialogues : un ensemble de données de dialogues multi-tours contenant 163,8k échantillons pour des sons audio généraux et de la musique. En plus des dialogues, Audio Dialogues comprend également des paires de questions-réponses pour comprendre et comparer plusieurs entrées audio ensemble. Audio Dialogues utilise une approche basée sur des invites et des annotations de description provenant d'ensembles de données existants pour générer des dialogues multi-tours à l'aide d'un modèle de langage de grande taille (LLM). Nous évaluons les modèles de langage de grande taille augmentés pour l'audio sur notre ensemble de données proposé pour démontrer la complexité et l'applicabilité d'Audio Dialogues. Notre code pour générer l'ensemble de données sera rendu public. Les invites détaillées et les dialogues générés peuvent être consultés sur le site de démonstration https://audiodialogues.github.io/.
English
Existing datasets for audio understanding primarily focus on single-turn interactions (i.e. audio captioning, audio question answering) for describing audio in natural language, thus limiting understanding audio via interactive dialogue. To address this gap, we introduce Audio Dialogues: a multi-turn dialogue dataset containing 163.8k samples for general audio sounds and music. In addition to dialogues, Audio Dialogues also has question-answer pairs to understand and compare multiple input audios together. Audio Dialogues leverages a prompting-based approach and caption annotations from existing datasets to generate multi-turn dialogues using a Large Language Model (LLM). We evaluate existing audio-augmented large language models on our proposed dataset to demonstrate the complexity and applicability of Audio Dialogues. Our code for generating the dataset will be made publicly available. Detailed prompts and generated dialogues can be found on the demo website https://audiodialogues.github.io/.

Summary

AI-Generated Summary

PDF161December 15, 2024