ChatPaper.aiChatPaper

Llasa: Escalando el cálculo de tiempo de entrenamiento e inferencia para la síntesis del habla basada en Llama.

Llasa: Scaling Train-Time and Inference-Time Compute for Llama-based Speech Synthesis

February 6, 2025
Autores: Zhen Ye, Xinfa Zhu, Chi-Min Chan, Xinsheng Wang, Xu Tan, Jiahe Lei, Yi Peng, Haohe Liu, Yizhu Jin, Zheqi DAI, Hongzhan Lin, Jianyi Chen, Xingjian Du, Liumeng Xue, Yunlin Chen, Zhifei Li, Lei Xie, Qiuqiang Kong, Yike Guo, Wei Xue
cs.AI

Resumen

Los avances recientes en modelos de lenguaje grandes basados en texto (LLMs, por sus siglas en inglés), particularmente en la serie GPT y el modelo o1, han demostrado la efectividad de escalar tanto el cálculo en tiempo de entrenamiento como en tiempo de inferencia. Sin embargo, los sistemas TTS de vanguardia que aprovechan los LLMs son frecuentemente multi-etapa, requiriendo modelos separados (por ejemplo, modelos de difusión después del LLM), lo que complica la decisión de si escalar un modelo en particular durante el entrenamiento o las pruebas. Este trabajo realiza las siguientes contribuciones: En primer lugar, exploramos la escalabilidad del cálculo en tiempo de entrenamiento y en tiempo de inferencia para la síntesis del habla. En segundo lugar, proponemos un marco simple llamado Llasa para la síntesis del habla que emplea un codificador de vector cuantizado (VQ) de una sola capa y una arquitectura de Transformer única para alinearse completamente con los LLMs estándar como Llama. Nuestros experimentos revelan que escalar el cálculo en tiempo de entrenamiento para Llasa mejora consistentemente la naturalidad del habla sintetizada y permite la generación de patrones prosódicos más complejos y precisos. Además, desde la perspectiva de la escalabilidad del cálculo en tiempo de inferencia, empleamos modelos de comprensión del habla como verificadores durante la búsqueda, encontrando que escalar el cálculo en tiempo de inferencia desplaza los modos de muestreo hacia las preferencias de verificadores específicos, mejorando así la expresividad emocional, la consistencia del timbre y la precisión del contenido. Además, hemos publicado públicamente el punto de control y el código de entrenamiento para nuestro modelo TTS (1B, 3B, 8B) y el modelo de codificador.
English
Recent advances in text-based large language models (LLMs), particularly in the GPT series and the o1 model, have demonstrated the effectiveness of scaling both training-time and inference-time compute. However, current state-of-the-art TTS systems leveraging LLMs are often multi-stage, requiring separate models (e.g., diffusion models after LLM), complicating the decision of whether to scale a particular model during training or testing. This work makes the following contributions: First, we explore the scaling of train-time and inference-time compute for speech synthesis. Second, we propose a simple framework Llasa for speech synthesis that employs a single-layer vector quantizer (VQ) codec and a single Transformer architecture to fully align with standard LLMs such as Llama. Our experiments reveal that scaling train-time compute for Llasa consistently improves the naturalness of synthesized speech and enables the generation of more complex and accurate prosody patterns. Furthermore, from the perspective of scaling inference-time compute, we employ speech understanding models as verifiers during the search, finding that scaling inference-time compute shifts the sampling modes toward the preferences of specific verifiers, thereby improving emotional expressiveness, timbre consistency, and content accuracy. In addition, we released the checkpoint and training code for our TTS model (1B, 3B, 8B) and codec model publicly available.

Summary

AI-Generated Summary

PDF254February 7, 2025