LLaMA-Omni2: Echtzeit-Sprachchatbot auf Basis von LLM mit autoregressiver Streaming-Sprachsynthese
LLaMA-Omni2: LLM-based Real-time Spoken Chatbot with Autoregressive Streaming Speech Synthesis
May 5, 2025
Autoren: Qingkai Fang, Yan Zhou, Shoutao Guo, Shaolei Zhang, Yang Feng
cs.AI
Zusammenfassung
Echtzeitige, intelligente und natürliche Sprachinteraktion ist ein wesentlicher Bestandteil der nächsten Generation der Mensch-Computer-Interaktion. Jüngste Fortschritte haben das Potenzial aufgezeigt, intelligente Sprach-Chatbots auf der Grundlage großer Sprachmodelle (LLMs) zu entwickeln. In diesem Artikel stellen wir LLaMA-Omni 2 vor, eine Reihe von Sprachmodellen (SpeechLMs) mit Parametern von 0,5B bis 14B, die in der Lage sind, hochwertige Echtzeit-Sprachinteraktion zu erreichen. LLaMA-Omni 2 basiert auf den Qwen2.5-Serienmodellen und integriert einen Sprach-Encoder sowie einen autoregressiven Streaming-Sprach-Decoder. Obwohl LLaMA-Omni 2 nur mit 200K mehrstufigen Sprachdialogproben trainiert wurde, zeigt es eine starke Leistung bei mehreren Benchmarks für gesprochene Frage-Antwort-Systeme und Sprachbefolgung und übertrifft dabei bisherige State-of-the-Art-SpeechLMs wie GLM-4-Voice, die mit Millionen von Stunden Sprachdaten trainiert wurden.
English
Real-time, intelligent, and natural speech interaction is an essential part
of the next-generation human-computer interaction. Recent advancements have
showcased the potential of building intelligent spoken chatbots based on large
language models (LLMs). In this paper, we introduce LLaMA-Omni 2, a series of
speech language models (SpeechLMs) ranging from 0.5B to 14B parameters, capable
of achieving high-quality real-time speech interaction. LLaMA-Omni 2 is built
upon the Qwen2.5 series models, integrating a speech encoder and an
autoregressive streaming speech decoder. Despite being trained on only 200K
multi-turn speech dialogue samples, LLaMA-Omni 2 demonstrates strong
performance on several spoken question answering and speech instruction
following benchmarks, surpassing previous state-of-the-art SpeechLMs like
GLM-4-Voice, which was trained on millions of hours of speech data.Summary
AI-Generated Summary