ChatPaper.aiChatPaper

Llasa: Dimensionando a Computação de Tempo de Treinamento e Tempo de Inferência para Síntese de Fala Baseada em Llama

Llasa: Scaling Train-Time and Inference-Time Compute for Llama-based Speech Synthesis

February 6, 2025
Autores: Zhen Ye, Xinfa Zhu, Chi-Min Chan, Xinsheng Wang, Xu Tan, Jiahe Lei, Yi Peng, Haohe Liu, Yizhu Jin, Zheqi DAI, Hongzhan Lin, Jianyi Chen, Xingjian Du, Liumeng Xue, Yunlin Chen, Zhifei Li, Lei Xie, Qiuqiang Kong, Yike Guo, Wei Xue
cs.AI

Resumo

Os avanços recentes em modelos de linguagem grandes baseados em texto (LLMs), particularmente na série GPT e no modelo o1, têm demonstrado a eficácia do escalonamento tanto do tempo de treinamento quanto do tempo de inferência computacional. No entanto, os atuais sistemas TTS de ponta que utilizam LLMs são frequentemente multiestágio, exigindo modelos separados (por exemplo, modelos de difusão após LLM), o que complica a decisão de escalar um modelo específico durante o treinamento ou teste. Este trabalho apresenta as seguintes contribuições: Primeiramente, exploramos o escalonamento do tempo de treinamento e inferência computacional para síntese de fala. Em segundo lugar, propomos um framework simples chamado Llasa para síntese de fala que emprega um codec de quantificador vetorial (VQ) de camada única e uma arquitetura Transformer única para se alinhar completamente com LLMs padrão, como Llama. Nossos experimentos revelam que o escalonamento do tempo de treinamento para Llasa melhora consistentemente a naturalidade da fala sintetizada e permite a geração de padrões de prosódia mais complexos e precisos. Além disso, do ponto de vista do escalonamento do tempo de inferência computacional, empregamos modelos de compreensão de fala como verificadores durante a busca, descobrindo que o escalonamento do tempo de inferência computacional desloca os modos de amostragem em direção às preferências de verificadores específicos, melhorando assim a expressividade emocional, a consistência de timbre e a precisão de conteúdo. Adicionalmente, disponibilizamos publicamente o checkpoint e o código de treinamento para nosso modelo TTS (1B, 3B, 8B) e modelo de codec.
English
Recent advances in text-based large language models (LLMs), particularly in the GPT series and the o1 model, have demonstrated the effectiveness of scaling both training-time and inference-time compute. However, current state-of-the-art TTS systems leveraging LLMs are often multi-stage, requiring separate models (e.g., diffusion models after LLM), complicating the decision of whether to scale a particular model during training or testing. This work makes the following contributions: First, we explore the scaling of train-time and inference-time compute for speech synthesis. Second, we propose a simple framework Llasa for speech synthesis that employs a single-layer vector quantizer (VQ) codec and a single Transformer architecture to fully align with standard LLMs such as Llama. Our experiments reveal that scaling train-time compute for Llasa consistently improves the naturalness of synthesized speech and enables the generation of more complex and accurate prosody patterns. Furthermore, from the perspective of scaling inference-time compute, we employ speech understanding models as verifiers during the search, finding that scaling inference-time compute shifts the sampling modes toward the preferences of specific verifiers, thereby improving emotional expressiveness, timbre consistency, and content accuracy. In addition, we released the checkpoint and training code for our TTS model (1B, 3B, 8B) and codec model publicly available.

Summary

AI-Generated Summary

PDF254February 7, 2025