Audio Mamba: Bidirectionaal State Space Model voor Audio Representatie Leren
Audio Mamba: Bidirectional State Space Model for Audio Representation Learning
June 5, 2024
Auteurs: Mehmet Hamza Erol, Arda Senocak, Jiu Feng, Joon Son Chung
cs.AI
Samenvatting
Transformers zijn snel de voorkeurskeuze geworden voor audioclassificatie, waarbij ze methoden gebaseerd op CNN's overtreffen. Audio Spectrogram Transformers (AST's) vertonen echter een kwadratische schaling door self-attention. Het verwijderen van deze kwadratische self-attention-kosten vormt een aantrekkelijke richting. Recentelijk hebben state space models (SSM's), zoals Mamba, potentieel getoond voor taal- en visietaken in dit opzicht. In deze studie onderzoeken we of afhankelijkheid van self-attention noodzakelijk is voor audioclassificatietaken. Door Audio Mamba (AuM) te introduceren, het eerste self-attention-vrije, puur op SSM gebaseerde model voor audioclassificatie, willen we deze vraag beantwoorden. We evalueren AuM op diverse audio-datasets - bestaande uit zes verschillende benchmarks - waar het vergelijkbare of betere prestaties behaalt in vergelijking met een gevestigd AST-model.
English
Transformers have rapidly become the preferred choice for audio
classification, surpassing methods based on CNNs. However, Audio Spectrogram
Transformers (ASTs) exhibit quadratic scaling due to self-attention. The
removal of this quadratic self-attention cost presents an appealing direction.
Recently, state space models (SSMs), such as Mamba, have demonstrated potential
in language and vision tasks in this regard. In this study, we explore whether
reliance on self-attention is necessary for audio classification tasks. By
introducing Audio Mamba (AuM), the first self-attention-free, purely SSM-based
model for audio classification, we aim to address this question. We evaluate
AuM on various audio datasets - comprising six different benchmarks - where it
achieves comparable or better performance compared to well-established AST
model.