ChatPaper.aiChatPaper

Alle talen zijn belangrijk: Evaluatie van LMM's op cultureel diverse 100 talen

All Languages Matter: Evaluating LMMs on Culturally Diverse 100 Languages

November 25, 2024
Auteurs: Ashmal Vayani, Dinura Dissanayake, Hasindri Watawana, Noor Ahsan, Nevasini Sasikumar, Omkar Thawakar, Henok Biadglign Ademtew, Yahya Hmaiti, Amandeep Kumar, Kartik Kuckreja, Mykola Maslych, Wafa Al Ghallabi, Mihail Mihaylov, Chao Qin, Abdelrahman M Shaker, Mike Zhang, Mahardika Krisna Ihsani, Amiel Esplana, Monil Gokani, Shachar Mirkin, Harsh Singh, Ashay Srivastava, Endre Hamerlik, Fathinah Asma Izzati, Fadillah Adamsyah Maani, Sebastian Cavada, Jenny Chim, Rohit Gupta, Sanjay Manjunath, Kamila Zhumakhanova, Feno Heriniaina Rabevohitra, Azril Amirudin, Muhammad Ridzuan, Daniya Kareem, Ketan More, Kunyang Li, Pramesh Shakya, Muhammad Saad, Amirpouya Ghasemaghaei, Amirbek Djanibekov, Dilshod Azizov, Branislava Jankovic, Naman Bhatia, Alvaro Cabrera, Johan Obando-Ceron, Olympiah Otieno, Fabian Farestam, Muztoba Rabbani, Sanoojan Baliah, Santosh Sanjeev, Abduragim Shtanchaev, Maheen Fatima, Thao Nguyen, Amrin Kareem, Toluwani Aremu, Nathan Xavier, Amit Bhatkal, Hawau Toyin, Aman Chadha, Hisham Cholakkal, Rao Muhammad Anwer, Michael Felsberg, Jorma Laaksonen, Thamar Solorio, Monojit Choudhury, Ivan Laptev, Mubarak Shah, Salman Khan, Fahad Khan
cs.AI

Samenvatting

Bestaande Grote Multimodale Modellen (LMM's) richten zich over het algemeen alleen op een paar regio's en talen. Naarmate LMM's blijven verbeteren, wordt het steeds belangrijker om ervoor te zorgen dat ze culturele contexten begrijpen, lokale gevoeligheden respecteren en lage-bron talen ondersteunen, terwijl ze effectief overeenkomstige visuele aanwijzingen integreren. In de zoektocht naar cultureel diverse wereldwijde multimodale modellen vertegenwoordigt ons voorgestelde All Languages Matter Benchmark (ALM-bench) de grootste en meest uitgebreide inspanning tot nu toe om LMM's te evalueren over 100 talen. ALM-bench daagt bestaande modellen uit door hun vermogen te testen om cultureel diverse afbeeldingen in combinatie met tekst in verschillende talen te begrijpen en te redeneren, inclusief veel lage-bron talen die traditioneel ondervertegenwoordigd zijn in LMM-onderzoek. De benchmark biedt een robuust en genuanceerd evaluatiekader met verschillende vraagformaten, waaronder waar/onwaar, meerkeuze en open vragen, die verder zijn onderverdeeld in korte en lange antwoordcategorieën. Het ontwerp van ALM-bench zorgt voor een uitgebreide beoordeling van het vermogen van een model om te gaan met verschillende moeilijkheidsgraden in visueel en taalkundig redeneren. Om het rijke tapijt van wereldculturen vast te leggen, selecteert ALM-bench zorgvuldig inhoud uit 13 verschillende culturele aspecten, variërend van tradities en rituelen tot beroemde persoonlijkheden en vieringen. Hierdoor biedt ALM-bench niet alleen een rigoureus testplatform voor toonaangevende open en gesloten-bron LMM's, maar benadrukt het ook het belang van culturele en taalkundige inclusiviteit, wat de ontwikkeling van modellen aanmoedigt die diverse wereldbevolkingen effectief kunnen bedienen. Onze benchmark is openbaar beschikbaar.
English
Existing Large Multimodal Models (LMMs) generally focus on only a few regions and languages. As LMMs continue to improve, it is increasingly important to ensure they understand cultural contexts, respect local sensitivities, and support low-resource languages, all while effectively integrating corresponding visual cues. In pursuit of culturally diverse global multimodal models, our proposed All Languages Matter Benchmark (ALM-bench) represents the largest and most comprehensive effort to date for evaluating LMMs across 100 languages. ALM-bench challenges existing models by testing their ability to understand and reason about culturally diverse images paired with text in various languages, including many low-resource languages traditionally underrepresented in LMM research. The benchmark offers a robust and nuanced evaluation framework featuring various question formats, including true/false, multiple choice, and open-ended questions, which are further divided into short and long-answer categories. ALM-bench design ensures a comprehensive assessment of a model's ability to handle varied levels of difficulty in visual and linguistic reasoning. To capture the rich tapestry of global cultures, ALM-bench carefully curates content from 13 distinct cultural aspects, ranging from traditions and rituals to famous personalities and celebrations. Through this, ALM-bench not only provides a rigorous testing ground for state-of-the-art open and closed-source LMMs but also highlights the importance of cultural and linguistic inclusivity, encouraging the development of models that can serve diverse global populations effectively. Our benchmark is publicly available.

Summary

AI-Generated Summary

PDF122November 27, 2024