ChatPaper.aiChatPaper

VITA-Audio: Быстрое чередующееся кросс-модальное генерация токенов для эффективных крупных речевых языковых моделей

VITA-Audio: Fast Interleaved Cross-Modal Token Generation for Efficient Large Speech-Language Model

May 6, 2025
Авторы: Zuwei Long, Yunhang Shen, Chaoyou Fu, Heting Gao, Lijiang Li, Peixian Chen, Mengdan Zhang, Hang Shao, Jian Li, Jinlong Peng, Haoyu Cao, Ke Li, Rongrong Ji, Xing Sun
cs.AI

Аннотация

С растущими требованиями к естественному взаимодействию человека с компьютером, речевые системы привлекают все больше внимания, поскольку речь является одной из наиболее распространенных форм повседневного общения. Однако существующие речевые модели по-прежнему сталкиваются с высокой задержкой при генерации первого аудиотокена в потоковом режиме, что создает значительное препятствие для их внедрения. Для решения этой проблемы мы предлагаем VITA-Audio — крупную сквозную речевую модель с быстрой генерацией аудио-текстовых токенов. В частности, мы представляем легковесный модуль Multiple Cross-modal Token Prediction (MCTP), который эффективно генерирует несколько аудиотокенов за один прямой проход модели, что не только ускоряет вывод, но и значительно сокращает задержку при генерации первого аудио в потоковых сценариях. Кроме того, исследуется четырехэтапная прогрессивная стратегия обучения для ускорения модели с минимальной потерей качества речи. Насколько нам известно, VITA-Audio является первой многомодальной крупной языковой моделью, способной генерировать аудиовыход уже при первом прямом проходе, что обеспечивает возможности для реального времени с минимальной задержкой. VITA-Audio полностью воспроизводима и обучается исключительно на открытых данных. Экспериментальные результаты показывают, что наша модель достигает ускорения вывода в 3–5 раз при масштабе в 7 миллиардов параметров, а также значительно превосходит открытые модели аналогичного размера на нескольких тестах для задач автоматического распознавания речи (ASR), синтеза речи (TTS) и ответов на устные вопросы (SQA).
English
With the growing requirement for natural human-computer interaction, speech-based systems receive increasing attention as speech is one of the most common forms of daily communication. However, the existing speech models still experience high latency when generating the first audio token during streaming, which poses a significant bottleneck for deployment. To address this issue, we propose VITA-Audio, an end-to-end large speech model with fast audio-text token generation. Specifically, we introduce a lightweight Multiple Cross-modal Token Prediction (MCTP) module that efficiently generates multiple audio tokens within a single model forward pass, which not only accelerates the inference but also significantly reduces the latency for generating the first audio in streaming scenarios. In addition, a four-stage progressive training strategy is explored to achieve model acceleration with minimal loss of speech quality. To our knowledge, VITA-Audio is the first multi-modal large language model capable of generating audio output during the first forward pass, enabling real-time conversational capabilities with minimal latency. VITA-Audio is fully reproducible and is trained on open-source data only. Experimental results demonstrate that our model achieves an inference speedup of 3~5x at the 7B parameter scale, but also significantly outperforms open-source models of similar model size on multiple benchmarks for automatic speech recognition (ASR), text-to-speech (TTS), and spoken question answering (SQA) tasks.

Summary

AI-Generated Summary

PDF71May 7, 2025