Llasa: Skalierung der Rechenleistung zur Trainings- und Inferenzzeit für Llama-basierte Sprachsynthese
Llasa: Scaling Train-Time and Inference-Time Compute for Llama-based Speech Synthesis
February 6, 2025
Autoren: Zhen Ye, Xinfa Zhu, Chi-Min Chan, Xinsheng Wang, Xu Tan, Jiahe Lei, Yi Peng, Haohe Liu, Yizhu Jin, Zheqi DAI, Hongzhan Lin, Jianyi Chen, Xingjian Du, Liumeng Xue, Yunlin Chen, Zhifei Li, Lei Xie, Qiuqiang Kong, Yike Guo, Wei Xue
cs.AI
Zusammenfassung
In jüngster Zeit haben Fortschritte bei textbasierten großen Sprachmodellen (LLMs), insbesondere bei der GPT-Serie und dem o1-Modell, die Wirksamkeit der Skalierung sowohl der Trainings- als auch der Inferenzzeitberechnung gezeigt. Allerdings sind aktuelle State-of-the-Art TTS-Systeme, die auf LLMs basieren, oft mehrstufig und erfordern separate Modelle (z. B. Diffusionsmodelle nach LLM), was die Entscheidung erschwert, ob ein bestimmtes Modell während des Trainings oder Tests skaliert werden soll. Diese Arbeit leistet folgende Beiträge: Erstens untersuchen wir die Skalierung der Trainings- und Inferenzzeitberechnung für die Sprachsynthese. Zweitens schlagen wir ein einfaches Framework Llasa für die Sprachsynthese vor, das einen Einzel-Lagen-Vektorquantisierer (VQ) Codec und eine einzelne Transformer-Architektur verwendet, um vollständig mit Standard-LLMs wie Llama übereinzustimmen. Unsere Experimente zeigen, dass die Skalierung der Trainingszeitberechnung für Llasa die Natürlichkeit des synthetisierten Sprechens konsistent verbessert und die Generierung komplexerer und genauerer Prosodie-Muster ermöglicht. Darüber hinaus verwenden wir aus der Perspektive der Skalierung der Inferenzzeitberechnung Sprachverständnismodelle als Verifizierer während der Suche und stellen fest, dass die Skalierung der Inferenzzeitberechnung die Abtastmodi in Richtung der Präferenzen spezifischer Verifizierer verschiebt, wodurch die emotionale Ausdrucksstärke, die Timbre-Konsistenz und die Inhaltsgenauigkeit verbessert werden. Zusätzlich haben wir den Checkpoint und den Trainingscode für unser TTS-Modell (1B, 3B, 8B) und das Codec-Modell öffentlich zugänglich gemacht.
English
Recent advances in text-based large language models (LLMs), particularly in
the GPT series and the o1 model, have demonstrated the effectiveness of scaling
both training-time and inference-time compute. However, current
state-of-the-art TTS systems leveraging LLMs are often multi-stage, requiring
separate models (e.g., diffusion models after LLM), complicating the decision
of whether to scale a particular model during training or testing. This work
makes the following contributions: First, we explore the scaling of train-time
and inference-time compute for speech synthesis. Second, we propose a simple
framework Llasa for speech synthesis that employs a single-layer vector
quantizer (VQ) codec and a single Transformer architecture to fully align with
standard LLMs such as Llama. Our experiments reveal that scaling train-time
compute for Llasa consistently improves the naturalness of synthesized speech
and enables the generation of more complex and accurate prosody patterns.
Furthermore, from the perspective of scaling inference-time compute, we employ
speech understanding models as verifiers during the search, finding that
scaling inference-time compute shifts the sampling modes toward the preferences
of specific verifiers, thereby improving emotional expressiveness, timbre
consistency, and content accuracy. In addition, we released the checkpoint and
training code for our TTS model (1B, 3B, 8B) and codec model publicly
available.Summary
AI-Generated Summary