LLaMA-Omni : Interaction vocale transparente avec de grands modèles de langageLLaMA-Omni: Seamless Speech Interaction with Large Language Models
Des modèles comme GPT-4o permettent une interaction en temps réel avec de grands modèles de langage (LLM) par la parole, améliorant significativement l'expérience utilisateur par rapport à une interaction traditionnelle basée sur le texte. Cependant, il existe encore un manque d'exploration sur la manière de construire des modèles d'interaction par la parole basés sur des LLM open source. Pour remédier à cela, nous proposons LLaMA-Omni, une architecture de modèle novatrice conçue pour une interaction par la parole avec des LLM à faible latence et de haute qualité. LLaMA-Omni intègre un encodeur de parole pré-entraîné, un adaptateur de parole, un LLM et un décodeur de parole en continu. Il élimine le besoin de transcription de la parole et peut générer simultanément des réponses textuelles et vocales directement à partir d'instructions vocales avec une latence extrêmement faible. Nous construisons notre modèle sur la base du dernier modèle Llama-3.1-8B-Instruct. Pour aligner le modèle avec des scénarios d'interaction par la parole, nous avons construit un ensemble de données nommé InstructS2S-200K, comprenant 200 000 instructions vocales et les réponses vocales correspondantes. Les résultats expérimentaux montrent que, par rapport aux modèles de langage parlé précédents, LLaMA-Omni fournit de meilleures réponses à la fois en contenu et en style, avec une latence de réponse aussi basse que 226 ms. De plus, l'entraînement de LLaMA-Omni prend moins de 3 jours sur seulement 4 GPU, ouvrant la voie au développement efficace de modèles de langage parlé à l'avenir.