ChatPaper.aiChatPaper

Llasa : Mise à l'échelle du calcul du temps d'entraînement et du temps d'inférence pour la synthèse vocale basée sur Llama

Llasa: Scaling Train-Time and Inference-Time Compute for Llama-based Speech Synthesis

February 6, 2025
Auteurs: Zhen Ye, Xinfa Zhu, Chi-Min Chan, Xinsheng Wang, Xu Tan, Jiahe Lei, Yi Peng, Haohe Liu, Yizhu Jin, Zheqi DAI, Hongzhan Lin, Jianyi Chen, Xingjian Du, Liumeng Xue, Yunlin Chen, Zhifei Li, Lei Xie, Qiuqiang Kong, Yike Guo, Wei Xue
cs.AI

Résumé

Les récentes avancées dans les modèles de langage à grande échelle (LLM) basés sur du texte, en particulier dans la série GPT et le modèle o1, ont démontré l'efficacité de l'augmentation à la fois du calcul au moment de l'entraînement et du calcul au moment de l'inférence. Cependant, les systèmes TTS de pointe exploitant les LLM sont souvent multi-étapes, nécessitant des modèles séparés (par exemple, des modèles de diffusion après les LLM), ce qui complique la décision de savoir s'il faut augmenter un modèle particulier pendant l'entraînement ou les tests. Ce travail apporte les contributions suivantes : Tout d'abord, nous explorons l'augmentation du calcul au moment de l'entraînement et de l'inférence pour la synthèse vocale. Deuxièmement, nous proposons un cadre simple, Llasa, pour la synthèse vocale qui utilise un codec de quantification vectorielle (VQ) à une seule couche et une seule architecture Transformer pour s'aligner pleinement avec les LLM standard tels que Llama. Nos expériences révèlent que l'augmentation du calcul au moment de l'entraînement pour Llasa améliore de manière constante la naturellesse de la parole synthétisée et permet la génération de motifs prosodiques plus complexes et précis. En outre, d'un point de vue de l'augmentation du calcul au moment de l'inférence, nous utilisons des modèles de compréhension de la parole en tant que vérificateurs lors de la recherche, constatant que l'augmentation du calcul au moment de l'inférence déplace les modes d'échantillonnage vers les préférences de vérificateurs spécifiques, améliorant ainsi l'expressivité émotionnelle, la cohérence du timbre et la précision du contenu. De plus, nous avons rendu public le point de contrôle et le code d'entraînement pour notre modèle TTS (1B, 3B, 8B) et le modèle de codec.
English
Recent advances in text-based large language models (LLMs), particularly in the GPT series and the o1 model, have demonstrated the effectiveness of scaling both training-time and inference-time compute. However, current state-of-the-art TTS systems leveraging LLMs are often multi-stage, requiring separate models (e.g., diffusion models after LLM), complicating the decision of whether to scale a particular model during training or testing. This work makes the following contributions: First, we explore the scaling of train-time and inference-time compute for speech synthesis. Second, we propose a simple framework Llasa for speech synthesis that employs a single-layer vector quantizer (VQ) codec and a single Transformer architecture to fully align with standard LLMs such as Llama. Our experiments reveal that scaling train-time compute for Llasa consistently improves the naturalness of synthesized speech and enables the generation of more complex and accurate prosody patterns. Furthermore, from the perspective of scaling inference-time compute, we employ speech understanding models as verifiers during the search, finding that scaling inference-time compute shifts the sampling modes toward the preferences of specific verifiers, thereby improving emotional expressiveness, timbre consistency, and content accuracy. In addition, we released the checkpoint and training code for our TTS model (1B, 3B, 8B) and codec model publicly available.

Summary

AI-Generated Summary

PDF254February 7, 2025