LLaMA-Omni: Nahtlose Sprachinteraktion mit großen SprachmodellenLLaMA-Omni: Seamless Speech Interaction with Large Language Models
Modelle wie GPT-4o ermöglichen eine Echtzeit-Interaktion mit großen Sprachmodellen (LLMs) über Sprache und verbessern die Benutzererfahrung erheblich im Vergleich zur traditionellen textbasierten Interaktion. Es besteht jedoch weiterhin ein Mangel an Erforschung darüber, wie Sprachinteraktionsmodelle auf Open-Source LLMs aufgebaut werden können. Um dies anzugehen, schlagen wir LLaMA-Omni vor, eine neuartige Modellarchitektur, die für eine geringe Latenzzeit und hochwertige Sprachinteraktion mit LLMs entwickelt wurde. LLaMA-Omni integriert einen vorab trainierten Sprachencoder, einen Sprachadapter, ein LLM und einen Streaming-Sprachdecoder. Es beseitigt die Notwendigkeit für Spracherkennung und kann gleichzeitig Text und Sprachantworten direkt aus Sprachanweisungen mit extrem geringer Latenz generieren. Wir bauen unser Modell auf dem neuesten Llama-3.1-8B-Instruct-Modell auf. Um das Modell auf Sprachinteraktionsszenarien abzustimmen, erstellen wir einen Datensatz namens InstructS2S-200K, der 200.000 Sprachanweisungen und entsprechende Sprachantworten enthält. Experimentelle Ergebnisse zeigen, dass LLaMA-Omni im Vergleich zu früheren Sprach-Sprach-Modellen bessere Antworten sowohl inhaltlich als auch im Stil liefert, mit einer Reaktionslatenzzeit von nur 226 ms. Darüber hinaus dauert das Training von LLaMA-Omni weniger als 3 Tage auf nur 4 GPUs und ebnet den Weg für die effiziente Entwicklung von Sprach-Sprach-Modellen in der Zukunft.