Dallah: Ein dialektbewusstes multimodales großes Sprachmodell für Arabisch
Dallah: A Dialect-Aware Multimodal Large Language Model for Arabic
July 25, 2024
Autoren: Fakhraddin Alwajih, Gagan Bhatia, Muhammad Abdul-Mageed
cs.AI
Zusammenfassung
In jüngster Zeit haben bedeutende Fortschritte die Fähigkeiten von Multimodalen Großen Sprachmodellen (MLLMs) bei der Generierung und dem Verständnis von Bild-zu-Text-Inhalten erheblich verbessert. Trotz dieser Erfolge ist der Fortschritt hauptsächlich auf Englisch beschränkt, aufgrund des Mangels an hochwertigen multimodalen Ressourcen in anderen Sprachen. Diese Begrenzung behindert die Entwicklung wettbewerbsfähiger Modelle in Sprachen wie Arabisch. Um diese Situation zu verbessern, stellen wir einen effizienten arabischen multimodalen Assistenten namens Dallah vor, der ein fortschrittliches Sprachmodell auf Basis von LLaMA-2 nutzt, um multimodale Interaktionen zu erleichtern. Dallah zeigt eine Leistung auf dem neuesten Stand der Technik bei arabischen MLLMs. Durch Feinabstimmung von sechs arabischen Dialekten zeigt Dallah seine Fähigkeit, komplexe dialektale Interaktionen zu bewältigen, die sowohl textuelle als auch visuelle Elemente umfassen. Das Modell zeichnet sich in zwei Benchmark-Tests aus: einer, der seine Leistung bei Modern Standard Arabic (MSA) bewertet, und ein anderer, der speziell entwickelt wurde, um dialektale Antworten zu bewerten. Über seine robuste Leistung bei multimodalen Interaktionsaufgaben hinaus hat Dallah das Potenzial, den Weg für die weitere Entwicklung von dialektbewussten arabischen MLLMs zu ebnen.
English
Recent advancements have significantly enhanced the capabilities of
Multimodal Large Language Models (MLLMs) in generating and understanding
image-to-text content. Despite these successes, progress is predominantly
limited to English due to the scarcity of high quality multimodal resources in
other languages. This limitation impedes the development of competitive models
in languages such as Arabic. To alleviate this situation, we introduce an
efficient Arabic multimodal assistant, dubbed Dallah, that utilizes an advanced
language model based on LLaMA-2 to facilitate multimodal interactions. Dallah
demonstrates state-of-the-art performance in Arabic MLLMs. Through fine-tuning
six Arabic dialects, Dallah showcases its capability to handle complex
dialectal interactions incorporating both textual and visual elements. The
model excels in two benchmark tests: one evaluating its performance on Modern
Standard Arabic (MSA) and another specifically designed to assess dialectal
responses. Beyond its robust performance in multimodal interaction tasks,
Dallah has the potential to pave the way for further development of
dialect-aware Arabic MLLMs.Summary
AI-Generated Summary