ChatPaper.aiChatPaper

FreGrad: Leichter und schneller frequenzbewusster Diffusions-Vocoder

FreGrad: Lightweight and Fast Frequency-aware Diffusion Vocoder

January 18, 2024
Autoren: Tan Dat Nguyen, Ji-Hoon Kim, Youngjoon Jang, Jaehun Kim, Joon Son Chung
cs.AI

Zusammenfassung

Das Ziel dieser Arbeit ist es, realistisches Audio mit einem leichten und schnellen, auf Diffusion basierenden Vocoder namens FreGrad zu erzeugen. Unser Framework besteht aus den folgenden drei Schlüsselkomponenten: (1) Wir verwenden die diskrete Wavelet-Transformation, die eine komplexe Wellenform in Subband-Wavelets zerlegt, wodurch FreGrad in einem einfachen und prägnanten Merkmalsraum operieren kann, (2) Wir entwerfen eine frequenzbewusste dilatierte Faltung, die das Frequenzbewusstsein erhöht und dadurch Sprache mit präzisen Frequenzinformationen erzeugt, und (3) Wir führen eine Reihe von Tricks ein, die die Generierungsqualität des vorgeschlagenen Modells verbessern. In unseren Experimenten erreicht FreGrad eine 3,7-mal schnellere Trainingszeit und eine 2,2-mal schnellere Inferenzgeschwindigkeit im Vergleich zu unserer Baseline, während die Modellgröße um das 0,6-fache reduziert wird (nur 1,78 Mio. Parameter), ohne die Ausgabequalität zu beeinträchtigen. Audio-Beispiele sind verfügbar unter: https://mm.kaist.ac.kr/projects/FreGrad.
English
The goal of this paper is to generate realistic audio with a lightweight and fast diffusion-based vocoder, named FreGrad. Our framework consists of the following three key components: (1) We employ discrete wavelet transform that decomposes a complicated waveform into sub-band wavelets, which helps FreGrad to operate on a simple and concise feature space, (2) We design a frequency-aware dilated convolution that elevates frequency awareness, resulting in generating speech with accurate frequency information, and (3) We introduce a bag of tricks that boosts the generation quality of the proposed model. In our experiments, FreGrad achieves 3.7 times faster training time and 2.2 times faster inference speed compared to our baseline while reducing the model size by 0.6 times (only 1.78M parameters) without sacrificing the output quality. Audio samples are available at: https://mm.kaist.ac.kr/projects/FreGrad.
PDF131December 15, 2024