ChatPaper.aiChatPaper

連続潜在空間におけるエネルギー距離を用いた効率的な音声言語モデリング

Efficient Speech Language Modeling via Energy Distance in Continuous Latent Space

May 19, 2025
著者: Zhengrui Ma, Yang Feng, Chenze Shao, Fandong Meng, Jie Zhou, Min Zhang
cs.AI

要旨

我々はSLEDを提案する。これは、音声波形を連続的な潜在表現の系列に符号化し、エネルギー距離を目的関数として自己回帰的にモデル化する、新たな音声言語モデリング手法である。エネルギー距離は、シミュレーションサンプルと目標サンプルを対比することで分布間のギャップを解析的に測定し、基盤となる連続自己回帰分布を効率的に学習することを可能にする。SLEDは残差ベクトル量子化への依存を回避することで、離散化誤差を除去し、既存の音声言語モデルで一般的な複雑な階層的アーキテクチャの必要性を解消する。これにより、音声情報の豊かさを保ちつつ推論効率を維持しつつ、全体のモデリングパイプラインを簡素化する。実験結果は、SLEDがゼロショット音声合成とストリーミング音声合成の両方で優れた性能を発揮し、汎用音声言語モデルとしての幅広い応用可能性を示している。
English
We introduce SLED, an alternative approach to speech language modeling by encoding speech waveforms into sequences of continuous latent representations and modeling them autoregressively using an energy distance objective. The energy distance offers an analytical measure of the distributional gap by contrasting simulated and target samples, enabling efficient training to capture the underlying continuous autoregressive distribution. By bypassing reliance on residual vector quantization, SLED avoids discretization errors and eliminates the need for the complicated hierarchical architectures common in existing speech language models. It simplifies the overall modeling pipeline while preserving the richness of speech information and maintaining inference efficiency. Empirical results demonstrate that SLED achieves strong performance in both zero-shot and streaming speech synthesis, showing its potential for broader applications in general-purpose speech language models.

Summary

AI-Generated Summary

PDF71May 21, 2025