Weltküchen: Ein umfangreicher Benchmark für mehrsprachiges und multikulturelles visuelles Frage-Antwort-System zu globalen Küchen
WorldCuisines: A Massive-Scale Benchmark for Multilingual and Multicultural Visual Question Answering on Global Cuisines
October 16, 2024
Autoren: Genta Indra Winata, Frederikus Hudi, Patrick Amadeus Irawan, David Anugraha, Rifki Afina Putri, Yutong Wang, Adam Nohejl, Ubaidillah Ariq Prathama, Nedjma Ousidhoum, Afifa Amriani, Anar Rzayev, Anirban Das, Ashmari Pramodya, Aulia Adila, Bryan Wilie, Candy Olivia Mawalim, Ching Lam Cheng, Daud Abolade, Emmanuele Chersoni, Enrico Santus, Fariz Ikhwantri, Garry Kuwanto, Hanyang Zhao, Haryo Akbarianto Wibowo, Holy Lovenia, Jan Christian Blaise Cruz, Jan Wira Gotama Putra, Junho Myung, Lucky Susanto, Maria Angelica Riera Machin, Marina Zhukova, Michael Anugraha, Muhammad Farid Adilazuarda, Natasha Santosa, Peerat Limkonchotiwat, Raj Dabre, Rio Alexander Audino, Samuel Cahyawijaya, Shi-Xiong Zhang, Stephanie Yulia Salim, Yi Zhou, Yinxuan Gui, David Ifeoluwa Adelani, En-Shiun Annie Lee, Shogo Okada, Ayu Purwarianti, Alham Fikri Aji, Taro Watanabe, Derry Tanti Wijaya, Alice Oh, Chong-Wah Ngo
cs.AI
Zusammenfassung
Vision Language Models (VLMs) haben oft Schwierigkeiten mit kulturspezifischem Wissen, insbesondere in Sprachen außerhalb des Englischen und in unterrepräsentierten kulturellen Kontexten. Um ihr Verständnis für solches Wissen zu bewerten, führen wir WorldCuisines ein, einen Benchmark im großen Maßstab für mehrsprachiges und multikulturelles, visuell fundiertes Sprachverständnis ein. Dieser Benchmark umfasst einen visuellen Frage-Antwort-Datensatz (VQA) mit Text-Bild-Paaren in 30 Sprachen und Dialekten, die 9 Sprachfamilien abdecken und über 1 Million Datenpunkte enthalten, was ihn zum größten multikulturellen VQA-Benchmark macht. Er beinhaltet Aufgaben zur Identifizierung von Gerichten und deren Ursprüngen. Wir stellen Bewertungsdatensätze in zwei Größen (12k und 60k Instanzen) zusammen mit einem Trainingsdatensatz (1 Million Instanzen) bereit. Unsere Ergebnisse zeigen, dass VLMs zwar besser abschneiden, wenn der richtige Ortskontext gegeben ist, sie jedoch Schwierigkeiten mit adversen Kontexten und der Vorhersage spezifischer regionaler Küchen und Sprachen haben. Um zukünftige Forschung zu unterstützen, veröffentlichen wir eine Wissensdatenbank mit annotierten Lebensmitteleinträgen und Bildern zusammen mit den VQA-Daten.
English
Vision Language Models (VLMs) often struggle with culture-specific knowledge,
particularly in languages other than English and in underrepresented cultural
contexts. To evaluate their understanding of such knowledge, we introduce
WorldCuisines, a massive-scale benchmark for multilingual and multicultural,
visually grounded language understanding. This benchmark includes a visual
question answering (VQA) dataset with text-image pairs across 30 languages and
dialects, spanning 9 language families and featuring over 1 million data
points, making it the largest multicultural VQA benchmark to date. It includes
tasks for identifying dish names and their origins. We provide evaluation
datasets in two sizes (12k and 60k instances) alongside a training dataset (1
million instances). Our findings show that while VLMs perform better with
correct location context, they struggle with adversarial contexts and
predicting specific regional cuisines and languages. To support future
research, we release a knowledge base with annotated food entries and images
along with the VQA data.Summary
AI-Generated Summary