ChatPaper.aiChatPaper

WavTokenizer: un Tokenizzatore Efficiente a Codice Discreto Acustico per il Modellamento del Linguaggio Audio

WavTokenizer: an Efficient Acoustic Discrete Codec Tokenizer for Audio Language Modeling

August 29, 2024
Autori: Shengpeng Ji, Ziyue Jiang, Xize Cheng, Yifu Chen, Minghui Fang, Jialong Zuo, Qian Yang, Ruiqi Li, Ziang Zhang, Xiaoda Yang, Rongjie Huang, Yidi Jiang, Qian Chen, Siqi Zheng, Wen Wang, Zhou Zhao
cs.AI

Abstract

I modelli linguistici sono stati applicati con successo alla modellazione di segnali naturali, come immagini, video, parlato e audio. Un componente cruciale di questi modelli è il tokenizzatore codec, che comprime segnali naturali ad alta dimensionalità in token discreti a dimensionalità inferiore. In questo articolo, presentiamo WavTokenizer, che offre diversi vantaggi rispetto ai precedenti modelli codec acustici allo stato dell'arte nel dominio audio: 1) compressione estrema. Comprimendo i livelli di quantizzatori e la dimensione temporale del codec discreto, un secondo di audio a frequenza di campionamento di 24kHz richiede solo un singolo quantizzatore con 40 o 75 token. 2) qualità soggettiva migliorata. Nonostante il numero ridotto di token, WavTokenizer raggiunge una qualità di ricostruzione allo stato dell'arte con punteggi UTMOS eccezionali e contiene intrinsecamente informazioni semantiche più ricche. In particolare, otteniamo questi risultati progettando uno spazio VQ più ampio, finestre contestuali estese e reti di attention migliorate, oltre a introdurre un potente discriminatore multi-scala e una struttura a trasformata inversa di Fourier. Abbiamo condotto ampi esperimenti di ricostruzione nei domini del parlato, dell'audio e della musica. WavTokenizer ha mostrato prestazioni solide in varie metriche oggettive e soggettive rispetto ai modelli allo stato dell'arte. Abbiamo anche testato le informazioni semantiche, l'utilizzo VQ e l'adattabilità ai modelli generativi. Studi di ablazione completi confermano la necessità di ogni modulo in WavTokenizer. Il codice correlato, le demo e i modelli pre-addestrati sono disponibili su https://github.com/jishengpeng/WavTokenizer.
English
Language models have been effectively applied to modeling natural signals, such as images, video, speech, and audio. A crucial component of these models is the codec tokenizer, which compresses high-dimensional natural signals into lower-dimensional discrete tokens. In this paper, we introduce WavTokenizer, which offers several advantages over previous SOTA acoustic codec models in the audio domain: 1)extreme compression. By compressing the layers of quantizers and the temporal dimension of the discrete codec, one-second audio of 24kHz sampling rate requires only a single quantizer with 40 or 75 tokens. 2)improved subjective quality. Despite the reduced number of tokens, WavTokenizer achieves state-of-the-art reconstruction quality with outstanding UTMOS scores and inherently contains richer semantic information. Specifically, we achieve these results by designing a broader VQ space, extended contextual windows, and improved attention networks, as well as introducing a powerful multi-scale discriminator and an inverse Fourier transform structure. We conducted extensive reconstruction experiments in the domains of speech, audio, and music. WavTokenizer exhibited strong performance across various objective and subjective metrics compared to state-of-the-art models. We also tested semantic information, VQ utilization, and adaptability to generative models. Comprehensive ablation studies confirm the necessity of each module in WavTokenizer. The related code, demos, and pre-trained models are available at https://github.com/jishengpeng/WavTokenizer.
PDF504November 14, 2024