ChatPaper.aiChatPaper

LLaMA-Omni2: Chatbot de Conversação em Tempo Real Baseado em LLM com Síntese de Fala Autoregressiva em Streaming

LLaMA-Omni2: LLM-based Real-time Spoken Chatbot with Autoregressive Streaming Speech Synthesis

May 5, 2025
Autores: Qingkai Fang, Yan Zhou, Shoutao Guo, Shaolei Zhang, Yang Feng
cs.AI

Resumo

A interação de fala em tempo real, inteligente e natural é um componente essencial da próxima geração de interação humano-computador. Avanços recentes têm demonstrado o potencial de construir chatbots falantes inteligentes baseados em grandes modelos de linguagem (LLMs). Neste artigo, apresentamos o LLaMA-Omni 2, uma série de modelos de linguagem de fala (SpeechLMs) que variam de 0,5B a 14B parâmetros, capazes de alcançar interação de fala em tempo real de alta qualidade. O LLaMA-Omni 2 é construído sobre os modelos da série Qwen2.5, integrando um codificador de fala e um decodificador de fala em streaming autoregressivo. Apesar de ter sido treinado com apenas 200 mil amostras de diálogos de fala multi-turn, o LLaMA-Omni 2 demonstra um desempenho robusto em vários benchmarks de resposta a perguntas faladas e seguimento de instruções de fala, superando os SpeechLMs anteriores de última geração, como o GLM-4-Voice, que foi treinado com milhões de horas de dados de fala.
English
Real-time, intelligent, and natural speech interaction is an essential part of the next-generation human-computer interaction. Recent advancements have showcased the potential of building intelligent spoken chatbots based on large language models (LLMs). In this paper, we introduce LLaMA-Omni 2, a series of speech language models (SpeechLMs) ranging from 0.5B to 14B parameters, capable of achieving high-quality real-time speech interaction. LLaMA-Omni 2 is built upon the Qwen2.5 series models, integrating a speech encoder and an autoregressive streaming speech decoder. Despite being trained on only 200K multi-turn speech dialogue samples, LLaMA-Omni 2 demonstrates strong performance on several spoken question answering and speech instruction following benchmarks, surpassing previous state-of-the-art SpeechLMs like GLM-4-Voice, which was trained on millions of hours of speech data.
PDF222May 6, 2025