Лласа: Масштабирование вычислений на этапе обучения и вывода для синтеза речи на основе Ламы
Llasa: Scaling Train-Time and Inference-Time Compute for Llama-based Speech Synthesis
February 6, 2025
Авторы: Zhen Ye, Xinfa Zhu, Chi-Min Chan, Xinsheng Wang, Xu Tan, Jiahe Lei, Yi Peng, Haohe Liu, Yizhu Jin, Zheqi DAI, Hongzhan Lin, Jianyi Chen, Xingjian Du, Liumeng Xue, Yunlin Chen, Zhifei Li, Lei Xie, Qiuqiang Kong, Yike Guo, Wei Xue
cs.AI
Аннотация
Недавние достижения в области текстовых моделей большого объема (LLM), в частности в серии GPT и модели o1, продемонстрировали эффективность масштабирования как вычислительных ресурсов во время обучения, так и во время вывода. Однако существующие передовые системы синтеза речи, использующие LLM, часто являются многоэтапными, требуя отдельных моделей (например, моделей диффузии после LLM), что усложняет решение о том, следует ли масштабировать конкретную модель во время обучения или тестирования. В данной работе вносятся следующие вклады: Во-первых, мы исследуем масштабирование вычислительных ресурсов во время обучения и вывода для синтеза речи. Во-вторых, мы предлагаем простую структуру Llasa для синтеза речи, которая использует кодек однослойного векторного квантования (VQ) и одну архитектуру Трансформера для полного соответствия стандартным LLM, таким как Llama. Наши эксперименты показывают, что масштабирование вычислительных ресурсов во время обучения для Llasa последовательно улучшает естественность синтезированной речи и позволяет генерировать более сложные и точные модели просодии. Кроме того, с точки зрения масштабирования вычислительных ресурсов во время вывода, мы используем модели понимания речи в качестве верификаторов во время поиска, обнаруживая, что масштабирование вычислительных ресурсов во время вывода смещает режимы выборки в сторону предпочтений конкретных верификаторов, тем самым улучшая эмоциональную экспрессивность, согласованность тембра и точность содержания. Кроме того, мы предоставили для общего доступа контрольную точку и код обучения для нашей модели TTS (1B, 3B, 8B) и модели кодека.
English
Recent advances in text-based large language models (LLMs), particularly in
the GPT series and the o1 model, have demonstrated the effectiveness of scaling
both training-time and inference-time compute. However, current
state-of-the-art TTS systems leveraging LLMs are often multi-stage, requiring
separate models (e.g., diffusion models after LLM), complicating the decision
of whether to scale a particular model during training or testing. This work
makes the following contributions: First, we explore the scaling of train-time
and inference-time compute for speech synthesis. Second, we propose a simple
framework Llasa for speech synthesis that employs a single-layer vector
quantizer (VQ) codec and a single Transformer architecture to fully align with
standard LLMs such as Llama. Our experiments reveal that scaling train-time
compute for Llasa consistently improves the naturalness of synthesized speech
and enables the generation of more complex and accurate prosody patterns.
Furthermore, from the perspective of scaling inference-time compute, we employ
speech understanding models as verifiers during the search, finding that
scaling inference-time compute shifts the sampling modes toward the preferences
of specific verifiers, thereby improving emotional expressiveness, timbre
consistency, and content accuracy. In addition, we released the checkpoint and
training code for our TTS model (1B, 3B, 8B) and codec model publicly
available.Summary
AI-Generated Summary