Audio Mamba : Modèle d'espace d'état bidirectionnel pour l'apprentissage de représentations audio
Audio Mamba: Bidirectional State Space Model for Audio Representation Learning
June 5, 2024
Auteurs: Mehmet Hamza Erol, Arda Senocak, Jiu Feng, Joon Son Chung
cs.AI
Résumé
Les Transformers sont rapidement devenus le choix privilégié pour la classification audio, surpassant les méthodes basées sur les CNN. Cependant, les Audio Spectrogram Transformers (AST) présentent une complexité quadratique due à l'auto-attention. L'élimination de ce coût quadratique lié à l'auto-attention représente une direction prometteuse. Récemment, les modèles à espace d'états (SSM), tels que Mamba, ont démontré leur potentiel dans les tâches de langage et de vision à cet égard. Dans cette étude, nous explorons si la dépendance à l'auto-attention est nécessaire pour les tâches de classification audio. En introduisant Audio Mamba (AuM), le premier modèle sans auto-attention, entièrement basé sur les SSM pour la classification audio, nous cherchons à répondre à cette question. Nous évaluons AuM sur divers ensembles de données audio - comprenant six benchmarks différents - où il atteint des performances comparables ou supérieures à celles du modèle AST bien établi.
English
Transformers have rapidly become the preferred choice for audio
classification, surpassing methods based on CNNs. However, Audio Spectrogram
Transformers (ASTs) exhibit quadratic scaling due to self-attention. The
removal of this quadratic self-attention cost presents an appealing direction.
Recently, state space models (SSMs), such as Mamba, have demonstrated potential
in language and vision tasks in this regard. In this study, we explore whether
reliance on self-attention is necessary for audio classification tasks. By
introducing Audio Mamba (AuM), the first self-attention-free, purely SSM-based
model for audio classification, we aim to address this question. We evaluate
AuM on various audio datasets - comprising six different benchmarks - where it
achieves comparable or better performance compared to well-established AST
model.Summary
AI-Generated Summary