ChatPaper.aiChatPaper

Llasa: Scalare il calcolo del tempo di addestramento e del tempo di inferenza per la sintesi vocale basata su Llama

Llasa: Scaling Train-Time and Inference-Time Compute for Llama-based Speech Synthesis

February 6, 2025
Autori: Zhen Ye, Xinfa Zhu, Chi-Min Chan, Xinsheng Wang, Xu Tan, Jiahe Lei, Yi Peng, Haohe Liu, Yizhu Jin, Zheqi DAI, Hongzhan Lin, Jianyi Chen, Xingjian Du, Liumeng Xue, Yunlin Chen, Zhifei Li, Lei Xie, Qiuqiang Kong, Yike Guo, Wei Xue
cs.AI

Abstract

I recenti progressi nei modelli linguistici di grandi dimensioni (LLM) basati su testo, in particolare nella serie GPT e nel modello o1, hanno dimostrato l'efficacia della scalabilità sia del calcolo durante l'addestramento che del calcolo durante l'inferenza. Tuttavia, i sistemi TTS all'avanguardia che sfruttano i LLM sono spesso multistadio, richiedendo modelli separati (ad esempio, modelli di diffusione dopo i LLM), complicando la decisione se scalare un particolare modello durante l'addestramento o il testing. Questo lavoro apporta i seguenti contributi: In primo luogo, esploriamo la scalabilità del calcolo durante l'addestramento e l'inferenza per la sintesi vocale. In secondo luogo, proponiamo un semplice framework Llasa per la sintesi vocale che utilizza un codec vettoriale a singolo strato (VQ) e un'architettura Transformer singola per allinearsi completamente con i LLM standard come Llama. I nostri esperimenti rivelano che la scalabilità del calcolo durante l'addestramento per Llasa migliora costantemente la naturalezza della voce sintetizzata e consente la generazione di modelli prosodici più complessi e accurati. Inoltre, dal punto di vista della scalabilità del calcolo durante l'inferenza, impieghiamo modelli di comprensione del linguaggio parlato come verificatori durante la ricerca, scoprendo che la scalabilità del calcolo durante l'inferenza sposta le modalità di campionamento verso le preferenze di specifici verificatori, migliorando così l'espressività emotiva, la coerenza timbrica e l'accuratezza del contenuto. Inoltre, abbiamo reso pubblicamente disponibili il checkpoint e il codice di addestramento per il nostro modello TTS (1B, 3B, 8B) e il modello di codec.
English
Recent advances in text-based large language models (LLMs), particularly in the GPT series and the o1 model, have demonstrated the effectiveness of scaling both training-time and inference-time compute. However, current state-of-the-art TTS systems leveraging LLMs are often multi-stage, requiring separate models (e.g., diffusion models after LLM), complicating the decision of whether to scale a particular model during training or testing. This work makes the following contributions: First, we explore the scaling of train-time and inference-time compute for speech synthesis. Second, we propose a simple framework Llasa for speech synthesis that employs a single-layer vector quantizer (VQ) codec and a single Transformer architecture to fully align with standard LLMs such as Llama. Our experiments reveal that scaling train-time compute for Llasa consistently improves the naturalness of synthesized speech and enables the generation of more complex and accurate prosody patterns. Furthermore, from the perspective of scaling inference-time compute, we employ speech understanding models as verifiers during the search, finding that scaling inference-time compute shifts the sampling modes toward the preferences of specific verifiers, thereby improving emotional expressiveness, timbre consistency, and content accuracy. In addition, we released the checkpoint and training code for our TTS model (1B, 3B, 8B) and codec model publicly available.

Summary

AI-Generated Summary

PDF254February 7, 2025