LLaMA-Omni2: Chatbot Vocale in Tempo Reale Basato su LLM con Sintesi Vocale Autoregressiva in Streaming
LLaMA-Omni2: LLM-based Real-time Spoken Chatbot with Autoregressive Streaming Speech Synthesis
May 5, 2025
Autori: Qingkai Fang, Yan Zhou, Shoutao Guo, Shaolei Zhang, Yang Feng
cs.AI
Abstract
L'interazione vocale in tempo reale, intelligente e naturale è una componente essenziale della prossima generazione di interazione uomo-computer. I recenti progressi hanno dimostrato il potenziale di costruire chatbot vocali intelligenti basati su modelli linguistici di grandi dimensioni (LLM). In questo articolo, presentiamo LLaMA-Omni 2, una serie di modelli linguistici vocali (SpeechLM) che vanno da 0,5B a 14B di parametri, in grado di raggiungere un'interazione vocale di alta qualità in tempo reale. LLaMA-Omni 2 è costruito sui modelli della serie Qwen2.5, integrando un codificatore vocale e un decodificatore vocale autoregressivo in streaming. Nonostante sia stato addestrato su soli 200K campioni di dialoghi vocali multi-turn, LLaMA-Omni 2 dimostra prestazioni solide su diversi benchmark di risposta a domande vocali e di esecuzione di istruzioni vocali, superando i precedenti SpeechLM all'avanguardia come GLM-4-Voice, che era stato addestrato su milioni di ore di dati vocali.
English
Real-time, intelligent, and natural speech interaction is an essential part
of the next-generation human-computer interaction. Recent advancements have
showcased the potential of building intelligent spoken chatbots based on large
language models (LLMs). In this paper, we introduce LLaMA-Omni 2, a series of
speech language models (SpeechLMs) ranging from 0.5B to 14B parameters, capable
of achieving high-quality real-time speech interaction. LLaMA-Omni 2 is built
upon the Qwen2.5 series models, integrating a speech encoder and an
autoregressive streaming speech decoder. Despite being trained on only 200K
multi-turn speech dialogue samples, LLaMA-Omni 2 demonstrates strong
performance on several spoken question answering and speech instruction
following benchmarks, surpassing previous state-of-the-art SpeechLMs like
GLM-4-Voice, which was trained on millions of hours of speech data.