ChatPaper.aiChatPaper

Mini-Omni: Los Modelos de Lenguaje Pueden Escuchar, Hablar Mientras Piensan en Tiempo Real

Mini-Omni: Language Models Can Hear, Talk While Thinking in Streaming

August 29, 2024
Autores: Zhifei Xie, Changqiao Wu
cs.AI

Resumen

Los avances recientes en modelos de lenguaje han logrado un progreso significativo. GPT-4o, como un nuevo hito, ha permitido conversaciones en tiempo real con humanos, demostrando una fluidez natural casi humana. Esta interacción humano-computadora requiere modelos con la capacidad de realizar razonamientos directamente con la modalidad de audio y generar resultados en tiempo real. Sin embargo, esto sigue estando más allá del alcance de los modelos académicos actuales, ya que típicamente dependen de sistemas TTS adicionales para la síntesis del habla, lo que resulta en una latencia no deseada. Este documento introduce el Mini-Omni, un modelo conversacional basado en audio de extremo a extremo, capaz de interacción de habla en tiempo real. Para lograr esta capacidad, proponemos un método de generación de habla instruido por texto, junto con estrategias de paralelización por lotes durante la inferencia para mejorar aún más el rendimiento. Nuestro método también ayuda a mantener las capacidades lingüísticas originales del modelo con una degradación mínima, permitiendo que otros trabajos establezcan capacidades de interacción en tiempo real. Llamamos a este método de entrenamiento "Cualquier Modelo Puede Hablar". También presentamos el conjunto de datos VoiceAssistant-400K para ajustar finamente modelos optimizados para la salida de habla. Hasta donde sabemos, Mini-Omni es el primer modelo de extremo a extremo totalmente de código abierto para interacción de habla en tiempo real, ofreciendo un potencial valioso para investigaciones futuras.
English
Recent advances in language models have achieved significant progress. GPT-4o, as a new milestone, has enabled real-time conversations with humans, demonstrating near-human natural fluency. Such human-computer interaction necessitates models with the capability to perform reasoning directly with the audio modality and generate output in streaming. However, this remains beyond the reach of current academic models, as they typically depend on extra TTS systems for speech synthesis, resulting in undesirable latency. This paper introduces the Mini-Omni, an audio-based end-to-end conversational model, capable of real-time speech interaction. To achieve this capability, we propose a text-instructed speech generation method, along with batch-parallel strategies during inference to further boost the performance. Our method also helps to retain the original model's language capabilities with minimal degradation, enabling other works to establish real-time interaction capabilities. We call this training method "Any Model Can Talk". We also introduce the VoiceAssistant-400K dataset to fine-tune models optimized for speech output. To our best knowledge, Mini-Omni is the first fully end-to-end, open-source model for real-time speech interaction, offering valuable potential for future research.

Summary

AI-Generated Summary

PDF546November 16, 2024