ChatPaper.aiChatPaper

Takin: Una Cohorte de Modelos de Generación de Habla de Calidad Superior sin Necesidad de Entrenamiento

Takin: A Cohort of Superior Quality Zero-shot Speech Generation Models

September 18, 2024
Autores: EverestAI, Sijin Chen, Yuan Feng, Laipeng He, Tianwei He, Wendi He, Yanni Hu, Bin Lin, Yiting Lin, Pengfei Tan, Chengwei Tian, Chen Wang, Zhicheng Wang, Ruoye Xie, Jingjing Yin, Jianhao Ye, Jixun Yao, Quanlei Yan, Yuguang Yang
cs.AI

Resumen

Con la llegada de la era del big data y los grandes modelos de lenguaje, la personalización rápida y personalizada sin necesidad de entrenamiento ha surgido como una tendencia significativa. En este informe, presentamos Takin AudioLLM, una serie de técnicas y modelos, que incluyen principalmente Takin TTS, Takin VC y Takin Morphing, diseñados específicamente para la producción de audiolibros. Estos modelos son capaces de producir habla sin necesidad de entrenamiento, generando habla de alta calidad que es casi indistinguible del habla humana real y facilitando a las personas personalizar el contenido del habla según sus propias necesidades. Específicamente, primero presentamos Takin TTS, un modelo de lenguaje de códec neuronal que se basa en un códec de habla neuronal mejorado y un marco de entrenamiento multi-tarea, capaz de generar habla natural de alta fidelidad de manera sin necesidad de entrenamiento. Para Takin VC, abogamos por un enfoque efectivo de modelado conjunto de contenido y timbre para mejorar la similitud del hablante, mientras abogamos por un decodificador basado en emparejamiento de flujo condicional para mejorar aún más su naturalidad y expresividad. Por último, proponemos el sistema Takin Morphing con enfoques de modelado de timbre y prosodia altamente desacoplados y avanzados, que permiten a las personas personalizar la producción de habla con su timbre y prosodia preferidos de manera precisa y controlable. Experimentos extensos validan la efectividad y robustez de nuestros modelos de la serie Takin AudioLLM. Para demostraciones detalladas, consulte https://takinaudiollm.github.io.
English
With the advent of the big data and large language model era, zero-shot personalized rapid customization has emerged as a significant trend. In this report, we introduce Takin AudioLLM, a series of techniques and models, mainly including Takin TTS, Takin VC, and Takin Morphing, specifically designed for audiobook production. These models are capable of zero-shot speech production, generating high-quality speech that is nearly indistinguishable from real human speech and facilitating individuals to customize the speech content according to their own needs. Specifically, we first introduce Takin TTS, a neural codec language model that builds upon an enhanced neural speech codec and a multi-task training framework, capable of generating high-fidelity natural speech in a zero-shot way. For Takin VC, we advocate an effective content and timbre joint modeling approach to improve the speaker similarity, while advocating for a conditional flow matching based decoder to further enhance its naturalness and expressiveness. Last, we propose the Takin Morphing system with highly decoupled and advanced timbre and prosody modeling approaches, which enables individuals to customize speech production with their preferred timbre and prosody in a precise and controllable manner. Extensive experiments validate the effectiveness and robustness of our Takin AudioLLM series models. For detailed demos, please refer to https://takinaudiollm.github.io.

Summary

AI-Generated Summary

PDF124November 16, 2024