ChatPaper.aiChatPaper

SoundStorm: Generazione Audio Parallela Efficiente

SoundStorm: Efficient Parallel Audio Generation

May 16, 2023
Autori: Zalán Borsos, Matt Sharifi, Damien Vincent, Eugene Kharitonov, Neil Zeghidour, Marco Tagliasacchi
cs.AI

Abstract

Presentiamo SoundStorm, un modello per la generazione efficiente e non autoregressiva di audio. SoundStorm riceve in input i token semantici di AudioLM e si basa su attenzione bidirezionale e decodifica parallela basata sulla confidenza per generare i token di un codec audio neurale. Rispetto all'approccio di generazione autoregressiva di AudioLM, il nostro modello produce audio della stessa qualità e con una maggiore coerenza nella voce e nelle condizioni acustiche, essendo due ordini di grandezza più veloce. SoundStorm genera 30 secondi di audio in 0,5 secondi su un TPU-v4. Dimostriamo la capacità del nostro modello di scalare la generazione audio a sequenze più lunghe sintetizzando segmenti di dialogo di alta qualità e naturali, dato un trascritto annotato con i turni di parola e un breve prompt con le voci dei parlanti.
English
We present SoundStorm, a model for efficient, non-autoregressive audio generation. SoundStorm receives as input the semantic tokens of AudioLM, and relies on bidirectional attention and confidence-based parallel decoding to generate the tokens of a neural audio codec. Compared to the autoregressive generation approach of AudioLM, our model produces audio of the same quality and with higher consistency in voice and acoustic conditions, while being two orders of magnitude faster. SoundStorm generates 30 seconds of audio in 0.5 seconds on a TPU-v4. We demonstrate the ability of our model to scale audio generation to longer sequences by synthesizing high-quality, natural dialogue segments, given a transcript annotated with speaker turns and a short prompt with the speakers' voices.
PDF148May 8, 2026