ChatPaper.aiChatPaper

Soundwave: меньше значит больше для выравнивания речи и текста в больших языковых моделях

Soundwave: Less is More for Speech-Text Alignment in LLMs

February 18, 2025
Авторы: Yuhao Zhang, Zhiheng Liu, Fan Bu, Ruiyu Zhang, Benyou Wang, Haizhou Li
cs.AI

Аннотация

Существующие сквозные речевые модели с большим языковым охватом (LLM) обычно полагаются на крупномасштабные аннотированные данные для обучения, в то время как вопрос эффективного использования данных для обучения не был глубоко изучен. Мы сосредоточились на двух фундаментальных проблемах, связанных с речью и текстом: разрыв в пространстве представлений и несоответствие длины последовательностей. Мы предлагаем Soundwave, который использует эффективную стратегию обучения и новую архитектуру для решения этих проблем. Результаты показывают, что Soundwave превосходит передовую модель Qwen2-Audio в задачах перевода речи и речевых задачах AIR-Bench, используя лишь одну пятидесятую часть обучающих данных. Дополнительный анализ показывает, что Soundwave сохраняет свою интеллектуальность в ходе диалога. Проект доступен по адресу https://github.com/FreedomIntelligence/Soundwave.
English
Existing end-to-end speech large language models (LLMs) usually rely on large-scale annotated data for training, while data-efficient training has not been discussed in depth. We focus on two fundamental problems between speech and text: the representation space gap and sequence length inconsistency. We propose Soundwave, which utilizes an efficient training strategy and a novel architecture to address these issues. Results show that Soundwave outperforms the advanced Qwen2-Audio in speech translation and AIR-Bench speech tasks, using only one-fiftieth of the training data. Further analysis shows that Soundwave still retains its intelligence during conversation. The project is available at https://github.com/FreedomIntelligence/Soundwave.
PDF865February 19, 2025