ChatPaper.aiChatPaper

Llasa: Schalen van rekenkracht voor trainings- en inferentietijd voor Llama-gebaseerde spraaksynthese

Llasa: Scaling Train-Time and Inference-Time Compute for Llama-based Speech Synthesis

February 6, 2025
Auteurs: Zhen Ye, Xinfa Zhu, Chi-Min Chan, Xinsheng Wang, Xu Tan, Jiahe Lei, Yi Peng, Haohe Liu, Yizhu Jin, Zheqi DAI, Hongzhan Lin, Jianyi Chen, Xingjian Du, Liumeng Xue, Yunlin Chen, Zhifei Li, Lei Xie, Qiuqiang Kong, Yike Guo, Wei Xue
cs.AI

Samenvatting

Recente ontwikkelingen in op tekst gebaseerde grote taalmodellen (LLM's), met name in de GPT-serie en het o1-model, hebben de effectiviteit aangetoond van het schalen van zowel trainings- als inferentie-tijd berekeningen. Echter, huidige state-of-the-art TTS-systemen die gebruikmaken van LLM's zijn vaak meertraps, waarbij aparte modellen nodig zijn (bijv. diffusiemodellen na LLM), wat de beslissing bemoeilijkt of een bepaald model moet worden geschaald tijdens training of testen. Dit werk levert de volgende bijdragen: Ten eerste onderzoeken we het schalen van trainings- en inferentie-tijd berekeningen voor spraaksynthese. Ten tweede stellen we een eenvoudig raamwerk Llasa voor spraaksynthese voor dat een enkelvoudige vectorquantizer (VQ) codec en een enkele Transformer-architectuur gebruikt om volledig aan te sluiten bij standaard LLM's zoals Llama. Onze experimenten tonen aan dat het schalen van trainingsberekeningen voor Llasa consequent de natuurlijkheid van gesynthetiseerde spraak verbetert en het genereren van complexere en nauwkeurigere prosodiepatronen mogelijk maakt. Bovendien, vanuit het perspectief van het schalen van inferentie-tijd berekeningen, gebruiken we spraakbegrijpingsmodellen als verificatoren tijdens de zoektocht, waarbij we constateren dat het schalen van inferentie-tijd berekeningen de bemonsteringsmodi verschuift naar de voorkeuren van specifieke verificatoren, waardoor de emotionele expressiviteit, timbreconsistentie en inhoudsnauwkeurigheid worden verbeterd. Daarnaast hebben we de checkpoint en trainingscode voor ons TTS-model (1B, 3B, 8B) en codec-model openbaar beschikbaar gesteld.
English
Recent advances in text-based large language models (LLMs), particularly in the GPT series and the o1 model, have demonstrated the effectiveness of scaling both training-time and inference-time compute. However, current state-of-the-art TTS systems leveraging LLMs are often multi-stage, requiring separate models (e.g., diffusion models after LLM), complicating the decision of whether to scale a particular model during training or testing. This work makes the following contributions: First, we explore the scaling of train-time and inference-time compute for speech synthesis. Second, we propose a simple framework Llasa for speech synthesis that employs a single-layer vector quantizer (VQ) codec and a single Transformer architecture to fully align with standard LLMs such as Llama. Our experiments reveal that scaling train-time compute for Llasa consistently improves the naturalness of synthesized speech and enables the generation of more complex and accurate prosody patterns. Furthermore, from the perspective of scaling inference-time compute, we employ speech understanding models as verifiers during the search, finding that scaling inference-time compute shifts the sampling modes toward the preferences of specific verifiers, thereby improving emotional expressiveness, timbre consistency, and content accuracy. In addition, we released the checkpoint and training code for our TTS model (1B, 3B, 8B) and codec model publicly available.

Summary

AI-Generated Summary

PDF254February 7, 2025