ChatPaper.aiChatPaper

Diálogos de Áudio: Conjunto de dados de diálogos para compreensão de áudio e música

Audio Dialogues: Dialogues dataset for audio and music understanding

April 11, 2024
Autores: Arushi Goel, Zhifeng Kong, Rafael Valle, Bryan Catanzaro
cs.AI

Resumo

Os conjuntos de dados existentes para compreensão de áudio concentram-se principalmente em interações de turno único (ou seja, legendagem de áudio, resposta a perguntas sobre áudio) para descrever áudio em linguagem natural, limitando assim a compreensão do áudio por meio de diálogos interativos. Para abordar essa lacuna, apresentamos o Audio Dialogues: um conjunto de dados de diálogo multi-turno contendo 163,8 mil amostras para sons gerais e música. Além dos diálogos, o Audio Dialogues também possui pares de perguntas e respostas para compreender e comparar múltiplos áudios de entrada juntos. O Audio Dialogues utiliza uma abordagem baseada em prompts e anotações de legendas de conjuntos de dados existentes para gerar diálogos multi-turno usando um Modelo de Linguagem de Grande Escala (LLM). Avaliamos modelos de linguagem de grande escala aumentados com áudio existentes em nosso conjunto de dados proposto para demonstrar a complexidade e aplicabilidade do Audio Dialogues. Nosso código para gerar o conjunto de dados será disponibilizado publicamente. Prompts detalhados e diálogos gerados podem ser encontrados no site de demonstração https://audiodialogues.github.io/.
English
Existing datasets for audio understanding primarily focus on single-turn interactions (i.e. audio captioning, audio question answering) for describing audio in natural language, thus limiting understanding audio via interactive dialogue. To address this gap, we introduce Audio Dialogues: a multi-turn dialogue dataset containing 163.8k samples for general audio sounds and music. In addition to dialogues, Audio Dialogues also has question-answer pairs to understand and compare multiple input audios together. Audio Dialogues leverages a prompting-based approach and caption annotations from existing datasets to generate multi-turn dialogues using a Large Language Model (LLM). We evaluate existing audio-augmented large language models on our proposed dataset to demonstrate the complexity and applicability of Audio Dialogues. Our code for generating the dataset will be made publicly available. Detailed prompts and generated dialogues can be found on the demo website https://audiodialogues.github.io/.
PDF161December 15, 2024