ChatPaper.aiChatPaper

WavTokenizer: un Codificador Discreto Acústico Eficiente para la Tokenización en Modelado de Lenguaje de Audio

WavTokenizer: an Efficient Acoustic Discrete Codec Tokenizer for Audio Language Modeling

August 29, 2024
Autores: Shengpeng Ji, Ziyue Jiang, Xize Cheng, Yifu Chen, Minghui Fang, Jialong Zuo, Qian Yang, Ruiqi Li, Ziang Zhang, Xiaoda Yang, Rongjie Huang, Yidi Jiang, Qian Chen, Siqi Zheng, Wen Wang, Zhou Zhao
cs.AI

Resumen

Los modelos de lenguaje han sido aplicados eficazmente para modelar señales naturales, como imágenes, video, habla y audio. Un componente crucial de estos modelos es el tokenizador de códec, que comprime señales naturales de alta dimensión en tokens discretos de menor dimensión. En este artículo, presentamos WavTokenizer, que ofrece varias ventajas sobre los modelos de códec acústico SOTA anteriores en el dominio del audio: 1) compresión extrema. Al comprimir las capas de cuantizadores y la dimensión temporal del códec discreto, un segundo de audio con una tasa de muestreo de 24 kHz requiere solo un cuantizador con 40 o 75 tokens. 2) calidad subjetiva mejorada. A pesar de la reducción en el número de tokens, WavTokenizer logra una calidad de reconstrucción de vanguardia con puntajes UTMOS sobresalientes y contiene inherentemente información semántica más rica. Específicamente, alcanzamos estos resultados diseñando un espacio VQ más amplio, ventanas contextuales extendidas y redes de atención mejoradas, así como introduciendo un discriminador multiescala potente y una estructura de transformada inversa de Fourier. Realizamos extensos experimentos de reconstrucción en los dominios de habla, audio y música. WavTokenizer mostró un rendimiento sólido en varias métricas objetivas y subjetivas en comparación con los modelos de vanguardia. También probamos la información semántica, la utilización de VQ y la adaptabilidad a modelos generativos. Estudios de ablación exhaustivos confirman la necesidad de cada módulo en WavTokenizer. El código relacionado, demostraciones y modelos preentrenados están disponibles en https://github.com/jishengpeng/WavTokenizer.
English
Language models have been effectively applied to modeling natural signals, such as images, video, speech, and audio. A crucial component of these models is the codec tokenizer, which compresses high-dimensional natural signals into lower-dimensional discrete tokens. In this paper, we introduce WavTokenizer, which offers several advantages over previous SOTA acoustic codec models in the audio domain: 1)extreme compression. By compressing the layers of quantizers and the temporal dimension of the discrete codec, one-second audio of 24kHz sampling rate requires only a single quantizer with 40 or 75 tokens. 2)improved subjective quality. Despite the reduced number of tokens, WavTokenizer achieves state-of-the-art reconstruction quality with outstanding UTMOS scores and inherently contains richer semantic information. Specifically, we achieve these results by designing a broader VQ space, extended contextual windows, and improved attention networks, as well as introducing a powerful multi-scale discriminator and an inverse Fourier transform structure. We conducted extensive reconstruction experiments in the domains of speech, audio, and music. WavTokenizer exhibited strong performance across various objective and subjective metrics compared to state-of-the-art models. We also tested semantic information, VQ utilization, and adaptability to generative models. Comprehensive ablation studies confirm the necessity of each module in WavTokenizer. The related code, demos, and pre-trained models are available at https://github.com/jishengpeng/WavTokenizer.
PDF504November 14, 2024