ChatPaper.aiChatPaper

Dallah: Ein dialektbewusstes multimodales großes Sprachmodell für Arabisch

Dallah: A Dialect-Aware Multimodal Large Language Model for Arabic

July 25, 2024
Autoren: Fakhraddin Alwajih, Gagan Bhatia, Muhammad Abdul-Mageed
cs.AI

Zusammenfassung

In jüngster Zeit haben bedeutende Fortschritte die Fähigkeiten von Multimodalen Großen Sprachmodellen (MLLMs) bei der Generierung und dem Verständnis von Bild-zu-Text-Inhalten erheblich verbessert. Trotz dieser Erfolge ist der Fortschritt hauptsächlich auf Englisch beschränkt, aufgrund des Mangels an hochwertigen multimodalen Ressourcen in anderen Sprachen. Diese Begrenzung behindert die Entwicklung wettbewerbsfähiger Modelle in Sprachen wie Arabisch. Um diese Situation zu verbessern, stellen wir einen effizienten arabischen multimodalen Assistenten namens Dallah vor, der ein fortschrittliches Sprachmodell auf Basis von LLaMA-2 nutzt, um multimodale Interaktionen zu erleichtern. Dallah zeigt eine Leistung auf dem neuesten Stand der Technik bei arabischen MLLMs. Durch Feinabstimmung von sechs arabischen Dialekten zeigt Dallah seine Fähigkeit, komplexe dialektale Interaktionen zu bewältigen, die sowohl textuelle als auch visuelle Elemente umfassen. Das Modell zeichnet sich in zwei Benchmark-Tests aus: einer, der seine Leistung bei Modern Standard Arabic (MSA) bewertet, und ein anderer, der speziell entwickelt wurde, um dialektale Antworten zu bewerten. Über seine robuste Leistung bei multimodalen Interaktionsaufgaben hinaus hat Dallah das Potenzial, den Weg für die weitere Entwicklung von dialektbewussten arabischen MLLMs zu ebnen.
English
Recent advancements have significantly enhanced the capabilities of Multimodal Large Language Models (MLLMs) in generating and understanding image-to-text content. Despite these successes, progress is predominantly limited to English due to the scarcity of high quality multimodal resources in other languages. This limitation impedes the development of competitive models in languages such as Arabic. To alleviate this situation, we introduce an efficient Arabic multimodal assistant, dubbed Dallah, that utilizes an advanced language model based on LLaMA-2 to facilitate multimodal interactions. Dallah demonstrates state-of-the-art performance in Arabic MLLMs. Through fine-tuning six Arabic dialects, Dallah showcases its capability to handle complex dialectal interactions incorporating both textual and visual elements. The model excels in two benchmark tests: one evaluating its performance on Modern Standard Arabic (MSA) and another specifically designed to assess dialectal responses. Beyond its robust performance in multimodal interaction tasks, Dallah has the potential to pave the way for further development of dialect-aware Arabic MLLMs.

Summary

AI-Generated Summary

PDF124November 28, 2024