ChatPaper.aiChatPaper

Mini-Omni : les modèles de langage peuvent entendre, parler tout en réfléchissant en continu

Mini-Omni: Language Models Can Hear, Talk While Thinking in Streaming

August 29, 2024
Auteurs: Zhifei Xie, Changqiao Wu
cs.AI

Résumé

Les récentes avancées dans les modèles de langage ont permis des progrès significatifs. GPT-4o, en tant que nouveau jalon, a permis des conversations en temps réel avec des humains, démontrant une fluidité naturelle proche de celle des humains. Une telle interaction homme-machine nécessite des modèles capables de raisonner directement avec la modalité audio et de générer des sorties en continu. Cependant, cela reste hors de portée des modèles académiques actuels, car ils dépendent généralement de systèmes TTS supplémentaires pour la synthèse vocale, entraînant une latence indésirable. Cet article présente le Mini-Omni, un modèle conversationnel audio de bout en bout, capable d'interaction vocale en temps réel. Pour atteindre cette capacité, nous proposons une méthode de génération de discours guidée par le texte, ainsi que des stratégies de parallélisme de lots lors de l'inférence pour améliorer encore les performances. Notre méthode aide également à conserver les capacités linguistiques du modèle original avec une dégradation minimale, permettant à d'autres travaux d'établir des capacités d'interaction en temps réel. Nous appelons cette méthode d'entraînement "Any Model Can Talk". Nous introduisons également l'ensemble de données VoiceAssistant-400K pour affiner les modèles optimisés pour la sortie vocale. À notre connaissance, Mini-Omni est le premier modèle entièrement open source de bout en bout pour l'interaction vocale en temps réel, offrant un potentiel précieux pour la recherche future.
English
Recent advances in language models have achieved significant progress. GPT-4o, as a new milestone, has enabled real-time conversations with humans, demonstrating near-human natural fluency. Such human-computer interaction necessitates models with the capability to perform reasoning directly with the audio modality and generate output in streaming. However, this remains beyond the reach of current academic models, as they typically depend on extra TTS systems for speech synthesis, resulting in undesirable latency. This paper introduces the Mini-Omni, an audio-based end-to-end conversational model, capable of real-time speech interaction. To achieve this capability, we propose a text-instructed speech generation method, along with batch-parallel strategies during inference to further boost the performance. Our method also helps to retain the original model's language capabilities with minimal degradation, enabling other works to establish real-time interaction capabilities. We call this training method "Any Model Can Talk". We also introduce the VoiceAssistant-400K dataset to fine-tune models optimized for speech output. To our best knowledge, Mini-Omni is the first fully end-to-end, open-source model for real-time speech interaction, offering valuable potential for future research.

Summary

AI-Generated Summary

PDF546November 16, 2024