ChatPaper.aiChatPaper

Dallah: Un Modello Linguistico Multimodale di Grandi Dimensioni Consapevole dei Dialetti per l'Arabo

Dallah: A Dialect-Aware Multimodal Large Language Model for Arabic

July 25, 2024
Autori: Fakhraddin Alwajih, Gagan Bhatia, Muhammad Abdul-Mageed
cs.AI

Abstract

I recenti progressi hanno significativamente migliorato le capacità dei Modelli Linguistici Multimodali di Grande Scala (MLLMs) nella generazione e comprensione di contenuti da immagine a testo. Nonostante questi successi, i progressi sono prevalentemente limitati all'inglese a causa della scarsità di risorse multimodali di alta qualità in altre lingue. Questa limitazione ostacola lo sviluppo di modelli competitivi in lingue come l'arabo. Per alleviare questa situazione, introduciamo un assistente multimodale arabo efficiente, denominato Dallah, che utilizza un modello linguistico avanzato basato su LLaMA-2 per facilitare le interazioni multimodali. Dallah dimostra prestazioni all'avanguardia negli MLLM arabi. Attraverso il fine-tuning di sei dialetti arabi, Dallah mostra la sua capacità di gestire interazioni dialettali complesse che incorporano sia elementi testuali che visivi. Il modello eccelle in due test di benchmark: uno che valuta le sue prestazioni sull'Arabo Standard Moderno (MSA) e un altro specificamente progettato per valutare le risposte dialettali. Oltre alle sue solide prestazioni nei compiti di interazione multimodale, Dallah ha il potenziale di aprire la strada a ulteriori sviluppi di MLLM arabi consapevoli dei dialetti.
English
Recent advancements have significantly enhanced the capabilities of Multimodal Large Language Models (MLLMs) in generating and understanding image-to-text content. Despite these successes, progress is predominantly limited to English due to the scarcity of high quality multimodal resources in other languages. This limitation impedes the development of competitive models in languages such as Arabic. To alleviate this situation, we introduce an efficient Arabic multimodal assistant, dubbed Dallah, that utilizes an advanced language model based on LLaMA-2 to facilitate multimodal interactions. Dallah demonstrates state-of-the-art performance in Arabic MLLMs. Through fine-tuning six Arabic dialects, Dallah showcases its capability to handle complex dialectal interactions incorporating both textual and visual elements. The model excels in two benchmark tests: one evaluating its performance on Modern Standard Arabic (MSA) and another specifically designed to assess dialectal responses. Beyond its robust performance in multimodal interaction tasks, Dallah has the potential to pave the way for further development of dialect-aware Arabic MLLMs.
PDF124November 28, 2024