ChatPaper.aiChatPaper

Audio Mamba: Modello Spaziale di Stato Bidirezionale per l'Apprendimento di Rappresentazioni Audio

Audio Mamba: Bidirectional State Space Model for Audio Representation Learning

June 5, 2024
Autori: Mehmet Hamza Erol, Arda Senocak, Jiu Feng, Joon Son Chung
cs.AI

Abstract

I Transformer sono rapidamente diventati la scelta preferita per la classificazione audio, superando i metodi basati su CNN. Tuttavia, gli Audio Spectrogram Transformer (AST) presentano una scalabilità quadratica a causa del meccanismo di self-attention. L'eliminazione di questo costo quadratico della self-attention rappresenta una direzione promettente. Recentemente, i modelli a spazio di stato (SSM), come Mamba, hanno dimostrato potenziale in questo ambito per compiti di linguaggio e visione. In questo studio, esploriamo se la dipendenza dalla self-attention sia necessaria per i compiti di classificazione audio. Introducendo Audio Mamba (AuM), il primo modello per la classificazione audio basato esclusivamente su SSM e privo di self-attention, miriamo a rispondere a questa domanda. Valutiamo AuM su vari dataset audio - comprendenti sei benchmark diversi - dove ottiene prestazioni comparabili o superiori rispetto a un consolidato modello AST.
English
Transformers have rapidly become the preferred choice for audio classification, surpassing methods based on CNNs. However, Audio Spectrogram Transformers (ASTs) exhibit quadratic scaling due to self-attention. The removal of this quadratic self-attention cost presents an appealing direction. Recently, state space models (SSMs), such as Mamba, have demonstrated potential in language and vision tasks in this regard. In this study, we explore whether reliance on self-attention is necessary for audio classification tasks. By introducing Audio Mamba (AuM), the first self-attention-free, purely SSM-based model for audio classification, we aim to address this question. We evaluate AuM on various audio datasets - comprising six different benchmarks - where it achieves comparable or better performance compared to well-established AST model.
PDF211December 12, 2024