Audio Mamba: Modello Spaziale di Stato Bidirezionale per l'Apprendimento di Rappresentazioni Audio
Audio Mamba: Bidirectional State Space Model for Audio Representation Learning
June 5, 2024
Autori: Mehmet Hamza Erol, Arda Senocak, Jiu Feng, Joon Son Chung
cs.AI
Abstract
I Transformer sono rapidamente diventati la scelta preferita per la classificazione audio, superando i metodi basati su CNN. Tuttavia, gli Audio Spectrogram Transformer (AST) presentano una scalabilità quadratica a causa del meccanismo di self-attention. L'eliminazione di questo costo quadratico della self-attention rappresenta una direzione promettente. Recentemente, i modelli a spazio di stato (SSM), come Mamba, hanno dimostrato potenziale in questo ambito per compiti di linguaggio e visione. In questo studio, esploriamo se la dipendenza dalla self-attention sia necessaria per i compiti di classificazione audio. Introducendo Audio Mamba (AuM), il primo modello per la classificazione audio basato esclusivamente su SSM e privo di self-attention, miriamo a rispondere a questa domanda. Valutiamo AuM su vari dataset audio - comprendenti sei benchmark diversi - dove ottiene prestazioni comparabili o superiori rispetto a un consolidato modello AST.
English
Transformers have rapidly become the preferred choice for audio
classification, surpassing methods based on CNNs. However, Audio Spectrogram
Transformers (ASTs) exhibit quadratic scaling due to self-attention. The
removal of this quadratic self-attention cost presents an appealing direction.
Recently, state space models (SSMs), such as Mamba, have demonstrated potential
in language and vision tasks in this regard. In this study, we explore whether
reliance on self-attention is necessary for audio classification tasks. By
introducing Audio Mamba (AuM), the first self-attention-free, purely SSM-based
model for audio classification, we aim to address this question. We evaluate
AuM on various audio datasets - comprising six different benchmarks - where it
achieves comparable or better performance compared to well-established AST
model.