ChatPaper.aiChatPaper

E3 TTS: Síntese de Fala Baseada em Difusão de Fácil Fim a Fim

E3 TTS: Easy End-to-End Diffusion-based Text to Speech

November 2, 2023
Autores: Yuan Gao, Nobuyuki Morioka, Yu Zhang, Nanxin Chen
cs.AI

Resumo

Propomos o Easy End-to-End Diffusion-based Text to Speech (E3 TTS), um modelo simples e eficiente de conversão de texto em fala baseado em difusão e de ponta a ponta. O E3 TTS recebe diretamente texto simples como entrada e gera uma forma de onda de áudio por meio de um processo iterativo de refinamento. Diferente de muitos trabalhos anteriores, o E3 TTS não depende de representações intermediárias, como características de espectrograma ou informações de alinhamento. Em vez disso, o E3 TTS modela a estrutura temporal da forma de onda por meio do processo de difusão. Sem depender de informações de condicionamento adicionais, o E3 TTS pode suportar uma estrutura latente flexível dentro do áudio fornecido. Isso permite que o E3 TTS seja facilmente adaptado para tarefas de zero-shot, como edição, sem qualquer treinamento adicional. Experimentos mostram que o E3 TTS pode gerar áudio de alta fidelidade, aproximando-se do desempenho de um sistema neural de TTS state-of-the-art. Amostras de áudio estão disponíveis em https://e3tts.github.io.
English
We propose Easy End-to-End Diffusion-based Text to Speech, a simple and efficient end-to-end text-to-speech model based on diffusion. E3 TTS directly takes plain text as input and generates an audio waveform through an iterative refinement process. Unlike many prior work, E3 TTS does not rely on any intermediate representations like spectrogram features or alignment information. Instead, E3 TTS models the temporal structure of the waveform through the diffusion process. Without relying on additional conditioning information, E3 TTS could support flexible latent structure within the given audio. This enables E3 TTS to be easily adapted for zero-shot tasks such as editing without any additional training. Experiments show that E3 TTS can generate high-fidelity audio, approaching the performance of a state-of-the-art neural TTS system. Audio samples are available at https://e3tts.github.io.
PDF161February 7, 2026