WavTokenizer : un tokeniseur efficace de code discret acoustique pour la modélisation du langage audio
WavTokenizer: an Efficient Acoustic Discrete Codec Tokenizer for Audio Language Modeling
August 29, 2024
papers.authors: Shengpeng Ji, Ziyue Jiang, Xize Cheng, Yifu Chen, Minghui Fang, Jialong Zuo, Qian Yang, Ruiqi Li, Ziang Zhang, Xiaoda Yang, Rongjie Huang, Yidi Jiang, Qian Chen, Siqi Zheng, Wen Wang, Zhou Zhao
cs.AI
papers.abstract
Les modèles de langage ont été appliqués avec succès à la modélisation de signaux naturels, tels que les images, la vidéo, la parole et l'audio. Un composant crucial de ces modèles est le tokeniseur de codec, qui compresse les signaux naturels de haute dimension en tokens discrets de dimension inférieure. Dans cet article, nous présentons WavTokenizer, qui offre plusieurs avantages par rapport aux modèles de codec acoustique précédents de l'état de l'art dans le domaine audio : 1) une compression extrême. En compressant les couches de quantificateurs et la dimension temporelle du codec discret, une seconde d'audio à une fréquence d'échantillonnage de 24 kHz ne nécessite qu'un seul quantificateur avec 40 ou 75 tokens. 2) une qualité subjective améliorée. Malgré la réduction du nombre de tokens, WavTokenizer atteint une qualité de reconstruction à la pointe de l'état de l'art avec d'excellents scores UTMOS et contient intrinsèquement des informations sémantiques plus riches. Plus précisément, nous obtenons ces résultats en concevant un espace VQ plus large, des fenêtres contextuelles étendues et des réseaux d'attention améliorés, ainsi qu'en introduisant un discriminateur multi-échelle puissant et une structure de transformée de Fourier inverse. Nous avons mené des expériences de reconstruction approfondies dans les domaines de la parole, de l'audio et de la musique. WavTokenizer a démontré de solides performances sur diverses métriques objectives et subjectives par rapport aux modèles de l'état de l'art. Nous avons également testé les informations sémantiques, l'utilisation de VQ et l'adaptabilité aux modèles génératifs. Des études d'ablation complètes confirment la nécessité de chaque module dans WavTokenizer. Le code associé, les démonstrations et les modèles pré-entraînés sont disponibles à l'adresse https://github.com/jishengpeng/WavTokenizer.
English
Language models have been effectively applied to modeling natural signals,
such as images, video, speech, and audio. A crucial component of these models
is the codec tokenizer, which compresses high-dimensional natural signals into
lower-dimensional discrete tokens. In this paper, we introduce WavTokenizer,
which offers several advantages over previous SOTA acoustic codec models in the
audio domain: 1)extreme compression. By compressing the layers of quantizers
and the temporal dimension of the discrete codec, one-second audio of 24kHz
sampling rate requires only a single quantizer with 40 or 75 tokens. 2)improved
subjective quality. Despite the reduced number of tokens, WavTokenizer achieves
state-of-the-art reconstruction quality with outstanding UTMOS scores and
inherently contains richer semantic information. Specifically, we achieve these
results by designing a broader VQ space, extended contextual windows, and
improved attention networks, as well as introducing a powerful multi-scale
discriminator and an inverse Fourier transform structure. We conducted
extensive reconstruction experiments in the domains of speech, audio, and
music. WavTokenizer exhibited strong performance across various objective and
subjective metrics compared to state-of-the-art models. We also tested semantic
information, VQ utilization, and adaptability to generative models.
Comprehensive ablation studies confirm the necessity of each module in
WavTokenizer. The related code, demos, and pre-trained models are available at
https://github.com/jishengpeng/WavTokenizer.