ChatPaper.aiChatPaper

Modellamento Efficiente del Linguaggio Parlato tramite Distanza Energetica nello Spazio Latente Continuo

Efficient Speech Language Modeling via Energy Distance in Continuous Latent Space

May 19, 2025
Autori: Zhengrui Ma, Yang Feng, Chenze Shao, Fandong Meng, Jie Zhou, Min Zhang
cs.AI

Abstract

Presentiamo SLED, un approccio alternativo alla modellazione del linguaggio vocale che codifica le forme d'onda del parlato in sequenze di rappresentazioni latenti continue e le modella in modo autoregressivo utilizzando una funzione obiettivo basata sulla distanza energetica. La distanza energetica fornisce una misura analitica del divario distributivo confrontando campioni simulati e target, consentendo un addestramento efficiente per catturare la distribuzione autoregressiva continua sottostante. Evitando la dipendenza dalla quantizzazione vettoriale residua, SLED elimina gli errori di discretizzazione e la necessità delle complesse architetture gerarchiche comuni nei modelli di linguaggio vocale esistenti. Semplifica l'intera pipeline di modellazione preservando la ricchezza delle informazioni vocali e mantenendo l'efficienza nell'inferenza. I risultati empirici dimostrano che SLED raggiunge prestazioni solide sia nella sintesi vocale zero-shot che in streaming, mostrando il suo potenziale per applicazioni più ampie nei modelli di linguaggio vocale generici.
English
We introduce SLED, an alternative approach to speech language modeling by encoding speech waveforms into sequences of continuous latent representations and modeling them autoregressively using an energy distance objective. The energy distance offers an analytical measure of the distributional gap by contrasting simulated and target samples, enabling efficient training to capture the underlying continuous autoregressive distribution. By bypassing reliance on residual vector quantization, SLED avoids discretization errors and eliminates the need for the complicated hierarchical architectures common in existing speech language models. It simplifies the overall modeling pipeline while preserving the richness of speech information and maintaining inference efficiency. Empirical results demonstrate that SLED achieves strong performance in both zero-shot and streaming speech synthesis, showing its potential for broader applications in general-purpose speech language models.
PDF92May 21, 2025