LibriTTS-R: Un Corpus Multi-Speaker di Sintesi Vocale Ripristinato
LibriTTS-R: A Restored Multi-Speaker Text-to-Speech Corpus
May 30, 2023
Autori: Yuma Koizumi, Heiga Zen, Shigeki Karita, Yifan Ding, Kohei Yatabe, Nobuyuki Morioka, Michiel Bacchiani, Yu Zhang, Wei Han, Ankur Bapna
cs.AI
Abstract
Questo articolo presenta un nuovo dataset vocale chiamato ``LibriTTS-R'', progettato per l'uso nella sintesi vocale (TTS). È stato ottenuto applicando tecniche di restauro audio al corpus LibriTTS, che consiste in 585 ore di dati vocali campionati a 24 kHz provenienti da 2.456 speaker e i relativi testi. I campioni costituenti di LibriTTS-R sono identici a quelli di LibriTTS, con la sola differenza di una qualità sonora migliorata. I risultati sperimentali mostrano che i campioni di riferimento di LibriTTS-R presentano una qualità sonora significativamente migliorata rispetto a quelli di LibriTTS. Inoltre, i sistemi neurali end-to-end per la sintesi vocale addestrati con LibriTTS-R hanno raggiunto una naturalezza del parlato paragonabile a quella dei campioni di riferimento. Il corpus è liberamente disponibile per il download all'indirizzo http://www.openslr.org/141/.
English
This paper introduces a new speech dataset called ``LibriTTS-R'' designed for
text-to-speech (TTS) use. It is derived by applying speech restoration to the
LibriTTS corpus, which consists of 585 hours of speech data at 24 kHz sampling
rate from 2,456 speakers and the corresponding texts. The constituent samples
of LibriTTS-R are identical to those of LibriTTS, with only the sound quality
improved. Experimental results show that the LibriTTS-R ground-truth samples
showed significantly improved sound quality compared to those in LibriTTS. In
addition, neural end-to-end TTS trained with LibriTTS-R achieved speech
naturalness on par with that of the ground-truth samples. The corpus is freely
available for download from http://www.openslr.org/141/.