ChatPaper.aiChatPaper

Audio Mamba : Modèle d'espace d'état bidirectionnel pour l'apprentissage de représentations audio

Audio Mamba: Bidirectional State Space Model for Audio Representation Learning

June 5, 2024
Auteurs: Mehmet Hamza Erol, Arda Senocak, Jiu Feng, Joon Son Chung
cs.AI

Résumé

Les Transformers sont rapidement devenus le choix privilégié pour la classification audio, surpassant les méthodes basées sur les CNN. Cependant, les Audio Spectrogram Transformers (AST) présentent une complexité quadratique due à l'auto-attention. L'élimination de ce coût quadratique lié à l'auto-attention représente une direction prometteuse. Récemment, les modèles à espace d'états (SSM), tels que Mamba, ont démontré leur potentiel dans les tâches de langage et de vision à cet égard. Dans cette étude, nous explorons si la dépendance à l'auto-attention est nécessaire pour les tâches de classification audio. En introduisant Audio Mamba (AuM), le premier modèle sans auto-attention, entièrement basé sur les SSM pour la classification audio, nous cherchons à répondre à cette question. Nous évaluons AuM sur divers ensembles de données audio - comprenant six benchmarks différents - où il atteint des performances comparables ou supérieures à celles du modèle AST bien établi.
English
Transformers have rapidly become the preferred choice for audio classification, surpassing methods based on CNNs. However, Audio Spectrogram Transformers (ASTs) exhibit quadratic scaling due to self-attention. The removal of this quadratic self-attention cost presents an appealing direction. Recently, state space models (SSMs), such as Mamba, have demonstrated potential in language and vision tasks in this regard. In this study, we explore whether reliance on self-attention is necessary for audio classification tasks. By introducing Audio Mamba (AuM), the first self-attention-free, purely SSM-based model for audio classification, we aim to address this question. We evaluate AuM on various audio datasets - comprising six different benchmarks - where it achieves comparable or better performance compared to well-established AST model.

Summary

AI-Generated Summary

PDF211December 12, 2024