ChatPaper.aiChatPaper

LLaMA-Omni2: LLM-gebaseerde real-time gesproken chatbot met autoregressieve streaming spraaksynthese

LLaMA-Omni2: LLM-based Real-time Spoken Chatbot with Autoregressive Streaming Speech Synthesis

May 5, 2025
Auteurs: Qingkai Fang, Yan Zhou, Shoutao Guo, Shaolei Zhang, Yang Feng
cs.AI

Samenvatting

Real-time, intelligente en natuurlijke spraakinteractie is een essentieel onderdeel van de volgende generatie mens-computerinteractie. Recente vooruitgang heeft het potentieel getoond van het bouwen van intelligente spraakchatbots gebaseerd op grote taalmodellen (LLMs). In dit artikel introduceren we LLaMA-Omni 2, een reeks spraaktaalmodellen (SpeechLMs) variërend van 0,5B tot 14B parameters, die in staat zijn om hoogwaardige real-time spraakinteractie te bereiken. LLaMA-Omni 2 is gebouwd op de Qwen2.5-serie modellen en integreert een spraakencoder en een autoregressieve streaming spraakdecoder. Ondanks dat het getraind is op slechts 200K multi-turn spraakdialoogvoorbeelden, toont LLaMA-Omni 2 sterke prestaties op verschillende benchmarks voor gesproken vraag-antwoordtaken en spraakinstructievolging, waarbij het eerdere state-of-the-art SpeechLMs zoals GLM-4-Voice overtreft, die getraind waren op miljoenen uren spraakdata.
English
Real-time, intelligent, and natural speech interaction is an essential part of the next-generation human-computer interaction. Recent advancements have showcased the potential of building intelligent spoken chatbots based on large language models (LLMs). In this paper, we introduce LLaMA-Omni 2, a series of speech language models (SpeechLMs) ranging from 0.5B to 14B parameters, capable of achieving high-quality real-time speech interaction. LLaMA-Omni 2 is built upon the Qwen2.5 series models, integrating a speech encoder and an autoregressive streaming speech decoder. Despite being trained on only 200K multi-turn speech dialogue samples, LLaMA-Omni 2 demonstrates strong performance on several spoken question answering and speech instruction following benchmarks, surpassing previous state-of-the-art SpeechLMs like GLM-4-Voice, which was trained on millions of hours of speech data.
PDF222May 6, 2025