Diálogos de Audio: Conjunto de datos de diálogos para la comprensión de audio y música
Audio Dialogues: Dialogues dataset for audio and music understanding
April 11, 2024
Autores: Arushi Goel, Zhifeng Kong, Rafael Valle, Bryan Catanzaro
cs.AI
Resumen
Los conjuntos de datos existentes para la comprensión de audio se centran principalmente en interacciones de un solo turno (es decir, descripción de audio, respuesta a preguntas sobre audio) para describir audio en lenguaje natural, lo que limita la comprensión del audio a través de diálogos interactivos. Para abordar esta brecha, presentamos Audio Dialogues: un conjunto de datos de diálogos de múltiples turnos que contiene 163.8k muestras para sonidos generales y música. Además de diálogos, Audio Dialogues también incluye pares de preguntas y respuestas para comprender y comparar múltiples audios de entrada juntos. Audio Dialogues utiliza un enfoque basado en indicaciones y anotaciones de descripciones de conjuntos de datos existentes para generar diálogos de múltiples turnos utilizando un Modelo de Lenguaje de Gran Escala (LLM, por sus siglas en inglés). Evaluamos modelos de lenguaje de gran escala aumentados con audio en nuestro conjunto de datos propuesto para demostrar la complejidad y aplicabilidad de Audio Dialogues. Nuestro código para generar el conjunto de datos estará disponible públicamente. Las indicaciones detalladas y los diálogos generados se pueden encontrar en el sitio web de demostración https://audiodialogues.github.io/.
English
Existing datasets for audio understanding primarily focus on single-turn
interactions (i.e. audio captioning, audio question answering) for describing
audio in natural language, thus limiting understanding audio via interactive
dialogue. To address this gap, we introduce Audio Dialogues: a multi-turn
dialogue dataset containing 163.8k samples for general audio sounds and music.
In addition to dialogues, Audio Dialogues also has question-answer pairs to
understand and compare multiple input audios together. Audio Dialogues
leverages a prompting-based approach and caption annotations from existing
datasets to generate multi-turn dialogues using a Large Language Model (LLM).
We evaluate existing audio-augmented large language models on our proposed
dataset to demonstrate the complexity and applicability of Audio Dialogues. Our
code for generating the dataset will be made publicly available. Detailed
prompts and generated dialogues can be found on the demo website
https://audiodialogues.github.io/.Summary
AI-Generated Summary