ChatPaper.aiChatPaper

Llasa: ラマベースの音声合成のためのトレーニング時間と推論時間の計算のスケーリング

Llasa: Scaling Train-Time and Inference-Time Compute for Llama-based Speech Synthesis

February 6, 2025
著者: Zhen Ye, Xinfa Zhu, Chi-Min Chan, Xinsheng Wang, Xu Tan, Jiahe Lei, Yi Peng, Haohe Liu, Yizhu Jin, Zheqi DAI, Hongzhan Lin, Jianyi Chen, Xingjian Du, Liumeng Xue, Yunlin Chen, Zhifei Li, Lei Xie, Qiuqiang Kong, Yike Guo, Wei Xue
cs.AI

要旨

最近のテキストベースの大規模言語モデル(LLM)の進歩、特にGPTシリーズとo1モデルにおいて、トレーニング時と推論時の計算のスケーリングの効果が示されました。ただし、現在の最先端のLLMを活用したTTSシステムは、しばしばマルチステージであり、別々のモデル(例:LLMの後の拡散モデル)が必要であり、特定のモデルをトレーニング中またはテスト中にスケーリングするかどうかの判断が複雑化しています。本研究では、以下の貢献を行っています。まず、音声合成のためのトレーニング時と推論時の計算のスケーリングを探究します。第二に、標準のLLMであるLlamaに完全に適合するように、単一層のベクトル量子化器(VQ)コーデックと単一のTransformerアーキテクチャを採用した音声合成のための簡潔なフレームワークLlasaを提案します。実験の結果、Llasaのトレーニング時の計算をスケーリングすることが、合成音声の自然さを一貫して向上させ、より複雑で正確な抑揚パターンの生成を可能にします。さらに、推論時の計算のスケーリングの観点から、サーチ中にスピーチ理解モデルを検証者として使用し、推論時の計算のスケーリングにより、サンプリングモードが特定の検証者の好みに向かい、感情表現力、音色の一貫性、およびコンテンツの正確性が向上します。さらに、私たちのTTSモデル(1B、3B、8B)およびコーデックモデルのチェックポイントとトレーニングコードを一般に公開しました。
English
Recent advances in text-based large language models (LLMs), particularly in the GPT series and the o1 model, have demonstrated the effectiveness of scaling both training-time and inference-time compute. However, current state-of-the-art TTS systems leveraging LLMs are often multi-stage, requiring separate models (e.g., diffusion models after LLM), complicating the decision of whether to scale a particular model during training or testing. This work makes the following contributions: First, we explore the scaling of train-time and inference-time compute for speech synthesis. Second, we propose a simple framework Llasa for speech synthesis that employs a single-layer vector quantizer (VQ) codec and a single Transformer architecture to fully align with standard LLMs such as Llama. Our experiments reveal that scaling train-time compute for Llasa consistently improves the naturalness of synthesized speech and enables the generation of more complex and accurate prosody patterns. Furthermore, from the perspective of scaling inference-time compute, we employ speech understanding models as verifiers during the search, finding that scaling inference-time compute shifts the sampling modes toward the preferences of specific verifiers, thereby improving emotional expressiveness, timbre consistency, and content accuracy. In addition, we released the checkpoint and training code for our TTS model (1B, 3B, 8B) and codec model publicly available.

Summary

AI-Generated Summary

PDF254February 7, 2025