ChatPaper.aiChatPaper

Soundwave: LLMにおける音声-テキストアラインメントのための「少ないほど良い」アプローチ

Soundwave: Less is More for Speech-Text Alignment in LLMs

February 18, 2025
著者: Yuhao Zhang, Zhiheng Liu, Fan Bu, Ruiyu Zhang, Benyou Wang, Haizhou Li
cs.AI

要旨

既存のエンドツーエンド音声大規模言語モデル(LLM)は、通常、大規模な注釈付きデータに依存して訓練されていますが、データ効率の良い訓練については深く議論されていません。我々は、音声とテキストの間にある2つの根本的な問題、すなわち表現空間のギャップとシーケンス長の不一致に焦点を当てます。これらの問題を解決するために、効率的な訓練戦略と新しいアーキテクチャを活用したSoundwaveを提案します。結果は、Soundwaveが、訓練データのわずか50分の1を使用して、音声翻訳とAIR-Bench音声タスクにおいて先進的なQwen2-Audioを凌駕することを示しています。さらに分析により、Soundwaveが会話中にその知性を保持していることが明らかになりました。本プロジェクトはhttps://github.com/FreedomIntelligence/Soundwaveで公開されています。
English
Existing end-to-end speech large language models (LLMs) usually rely on large-scale annotated data for training, while data-efficient training has not been discussed in depth. We focus on two fundamental problems between speech and text: the representation space gap and sequence length inconsistency. We propose Soundwave, which utilizes an efficient training strategy and a novel architecture to address these issues. Results show that Soundwave outperforms the advanced Qwen2-Audio in speech translation and AIR-Bench speech tasks, using only one-fiftieth of the training data. Further analysis shows that Soundwave still retains its intelligence during conversation. The project is available at https://github.com/FreedomIntelligence/Soundwave.

Summary

AI-Generated Summary

PDF864February 19, 2025