SoundStorm: Generazione Audio Parallela Efficiente
SoundStorm: Efficient Parallel Audio Generation
May 16, 2023
Autori: Zalán Borsos, Matt Sharifi, Damien Vincent, Eugene Kharitonov, Neil Zeghidour, Marco Tagliasacchi
cs.AI
Abstract
Presentiamo SoundStorm, un modello per la generazione efficiente e non autoregressiva di audio. SoundStorm riceve in input i token semantici di AudioLM e si basa su attenzione bidirezionale e decodifica parallela basata sulla confidenza per generare i token di un codec audio neurale. Rispetto all'approccio di generazione autoregressiva di AudioLM, il nostro modello produce audio della stessa qualità e con una maggiore coerenza nella voce e nelle condizioni acustiche, essendo due ordini di grandezza più veloce. SoundStorm genera 30 secondi di audio in 0,5 secondi su un TPU-v4. Dimostriamo la capacità del nostro modello di scalare la generazione audio a sequenze più lunghe sintetizzando segmenti di dialogo di alta qualità e naturali, dato un trascritto annotato con i turni di parola e un breve prompt con le voci dei parlanti.
English
We present SoundStorm, a model for efficient, non-autoregressive audio
generation. SoundStorm receives as input the semantic tokens of AudioLM, and
relies on bidirectional attention and confidence-based parallel decoding to
generate the tokens of a neural audio codec. Compared to the autoregressive
generation approach of AudioLM, our model produces audio of the same quality
and with higher consistency in voice and acoustic conditions, while being two
orders of magnitude faster. SoundStorm generates 30 seconds of audio in 0.5
seconds on a TPU-v4. We demonstrate the ability of our model to scale audio
generation to longer sequences by synthesizing high-quality, natural dialogue
segments, given a transcript annotated with speaker turns and a short prompt
with the speakers' voices.