ChatPaper.aiChatPaper

Modelagem Generativa Eficiente com Tokens Baseados em Quantização Vetorial Residual

Efficient Generative Modeling with Residual Vector Quantization-Based Tokens

December 13, 2024
Autores: Jaehyeon Kim, Taehong Moon, Keon Lee, Jaewoong Cho
cs.AI

Resumo

Exploramos o uso da Quantização Vetorial Residual (QVR) para geração de alta fidelidade em modelos generativos quantizados por vetores. Essa técnica de quantização mantém uma fidelidade de dados mais alta ao empregar tokens mais aprofundados. No entanto, aumentar o número de tokens em modelos generativos resulta em velocidades de inferência mais lentas. Para isso, introduzimos o ResGen, um modelo de difusão discreta eficiente baseado em QVR que gera amostras de alta fidelidade sem comprometer a velocidade de amostragem. Nossa ideia-chave é a previsão direta da incorporação vetorial de tokens coletivos em vez de individuais. Além disso, demonstramos que nosso método proposto de mascaramento de tokens e previsão multi-token pode ser formulado dentro de um framework probabilístico fundamentado usando um processo de difusão discreta e inferência variacional. Validamos a eficácia e generalizabilidade do método proposto em duas tarefas desafiadoras em diferentes modalidades: geração de imagens condicionais no ImageNet 256x256 e síntese de texto para fala sem treinamento. Resultados experimentais demonstram que o ResGen supera contrapartes autoregressivas em ambas as tarefas, oferecendo desempenho superior sem comprometer a velocidade de amostragem. Além disso, à medida que aumentamos a profundidade da QVR, nossos modelos generativos exibem uma fidelidade de geração aprimorada ou velocidades de amostragem mais rápidas em comparação com modelos de referência de tamanho semelhante. A página do projeto pode ser encontrada em https://resgen-genai.github.io
English
We explore the use of Residual Vector Quantization (RVQ) for high-fidelity generation in vector-quantized generative models. This quantization technique maintains higher data fidelity by employing more in-depth tokens. However, increasing the token number in generative models leads to slower inference speeds. To this end, we introduce ResGen, an efficient RVQ-based discrete diffusion model that generates high-fidelity samples without compromising sampling speed. Our key idea is a direct prediction of vector embedding of collective tokens rather than individual ones. Moreover, we demonstrate that our proposed token masking and multi-token prediction method can be formulated within a principled probabilistic framework using a discrete diffusion process and variational inference. We validate the efficacy and generalizability of the proposed method on two challenging tasks across different modalities: conditional image generation} on ImageNet 256x256 and zero-shot text-to-speech synthesis. Experimental results demonstrate that ResGen outperforms autoregressive counterparts in both tasks, delivering superior performance without compromising sampling speed. Furthermore, as we scale the depth of RVQ, our generative models exhibit enhanced generation fidelity or faster sampling speeds compared to similarly sized baseline models. The project page can be found at https://resgen-genai.github.io

Summary

AI-Generated Summary

PDF192December 17, 2024