ChatPaper.aiChatPaper

Takin: Een Cohort van Zero-shot Spraakgeneratiemodellen van Superieure Kwaliteit

Takin: A Cohort of Superior Quality Zero-shot Speech Generation Models

September 18, 2024
Auteurs: EverestAI, Sijin Chen, Yuan Feng, Laipeng He, Tianwei He, Wendi He, Yanni Hu, Bin Lin, Yiting Lin, Pengfei Tan, Chengwei Tian, Chen Wang, Zhicheng Wang, Ruoye Xie, Jingjing Yin, Jianhao Ye, Jixun Yao, Quanlei Yan, Yuguang Yang
cs.AI

Samenvatting

Met de opkomst van het tijdperk van big data en grote taalmodellen is zero-shot gepersonaliseerde snelle aanpassing naar voren gekomen als een belangrijke trend. In dit rapport introduceren we Takin AudioLLM, een reeks technieken en modellen, voornamelijk bestaande uit Takin TTS, Takin VC en Takin Morphing, specifiek ontworpen voor de productie van luisterboeken. Deze modellen zijn in staat tot zero-shot spraakproductie, waarbij hoogwaardige spraak wordt gegenereerd die bijna niet te onderscheiden is van echt menselijke spraak en individuen in staat stelt om de spraakinvoer aan te passen aan hun eigen behoeften. In het bijzonder introduceren we eerst Takin TTS, een neurale codec-taalmodel dat voortbouwt op een verbeterde neurale spraakcodec en een multi-task trainingskader, dat in staat is om op een zero-shot manier hoogwaardige natuurlijke spraak te genereren. Voor Takin VC pleiten we voor een effectieve benadering van gezamenlijke modellering van inhoud en timbre om de sprekersgelijkenis te verbeteren, terwijl we pleiten voor een decoder op basis van conditionele stroommatching om de natuurlijkheid en expressiviteit verder te verbeteren. Tot slot stellen we het Takin Morphing-systeem voor met sterk ontkoppelde en geavanceerde benaderingen voor timbre en prosodie modellering, waarmee individuen spraakproductie kunnen aanpassen met hun voorkeurstimbre en prosodie op een nauwkeurige en controleerbare manier. Uitgebreide experimenten bevestigen de effectiviteit en robuustheid van onze Takin AudioLLM-seriemodellen. Voor gedetailleerde demonstraties kunt u terecht op https://takinaudiollm.github.io.
English
With the advent of the big data and large language model era, zero-shot personalized rapid customization has emerged as a significant trend. In this report, we introduce Takin AudioLLM, a series of techniques and models, mainly including Takin TTS, Takin VC, and Takin Morphing, specifically designed for audiobook production. These models are capable of zero-shot speech production, generating high-quality speech that is nearly indistinguishable from real human speech and facilitating individuals to customize the speech content according to their own needs. Specifically, we first introduce Takin TTS, a neural codec language model that builds upon an enhanced neural speech codec and a multi-task training framework, capable of generating high-fidelity natural speech in a zero-shot way. For Takin VC, we advocate an effective content and timbre joint modeling approach to improve the speaker similarity, while advocating for a conditional flow matching based decoder to further enhance its naturalness and expressiveness. Last, we propose the Takin Morphing system with highly decoupled and advanced timbre and prosody modeling approaches, which enables individuals to customize speech production with their preferred timbre and prosody in a precise and controllable manner. Extensive experiments validate the effectiveness and robustness of our Takin AudioLLM series models. For detailed demos, please refer to https://takinaudiollm.github.io.

Summary

AI-Generated Summary

PDF124November 16, 2024