ChatPaper.aiChatPaper

WorldCuisines: масштабный бенчмарк для многоязычного и мультикультурного визуального вопросно-ответного обучения на глобальных кухнях

WorldCuisines: A Massive-Scale Benchmark for Multilingual and Multicultural Visual Question Answering on Global Cuisines

October 16, 2024
Авторы: Genta Indra Winata, Frederikus Hudi, Patrick Amadeus Irawan, David Anugraha, Rifki Afina Putri, Yutong Wang, Adam Nohejl, Ubaidillah Ariq Prathama, Nedjma Ousidhoum, Afifa Amriani, Anar Rzayev, Anirban Das, Ashmari Pramodya, Aulia Adila, Bryan Wilie, Candy Olivia Mawalim, Ching Lam Cheng, Daud Abolade, Emmanuele Chersoni, Enrico Santus, Fariz Ikhwantri, Garry Kuwanto, Hanyang Zhao, Haryo Akbarianto Wibowo, Holy Lovenia, Jan Christian Blaise Cruz, Jan Wira Gotama Putra, Junho Myung, Lucky Susanto, Maria Angelica Riera Machin, Marina Zhukova, Michael Anugraha, Muhammad Farid Adilazuarda, Natasha Santosa, Peerat Limkonchotiwat, Raj Dabre, Rio Alexander Audino, Samuel Cahyawijaya, Shi-Xiong Zhang, Stephanie Yulia Salim, Yi Zhou, Yinxuan Gui, David Ifeoluwa Adelani, En-Shiun Annie Lee, Shogo Okada, Ayu Purwarianti, Alham Fikri Aji, Taro Watanabe, Derry Tanti Wijaya, Alice Oh, Chong-Wah Ngo
cs.AI

Аннотация

Модели языка для зрительного восприятия (VLM) часто испытывают трудности с культурно-специфическими знаниями, особенно в языках, отличных от английского, и в недостаточно представленных культурных контекстах. Для оценки их понимания таких знаний мы представляем WorldCuisines - масштабный бенчмарк для мультиязычного и мультикультурного понимания, основанного на визуальных данных. Этот бенчмарк включает набор данных для визуального вопросно-ответного моделирования (VQA) с парами текст-изображение на 30 языках и диалектах, охватывающих 9 языковых семей и содержащих более 1 миллиона данных, что делает его крупнейшим мультикультурным бенчмарком VQA на сегодняшний день. В нем предусмотрены задачи по идентификации названий блюд и их происхождения. Мы предоставляем наборы данных для оценки в двух размерах (12 тыс. и 60 тыс. примеров) наряду с обучающим набором данных (1 миллион примеров). Наши результаты показывают, что хотя VLM показывают лучшие результаты с правильным контекстом местоположения, они испытывают трудности с адверсальными контекстами, предсказанием конкретных региональных кухонь и языков. Для поддержки будущих исследований мы выпускаем базу знаний с аннотированными записями о еде и изображениями наряду с данными VQA.
English
Vision Language Models (VLMs) often struggle with culture-specific knowledge, particularly in languages other than English and in underrepresented cultural contexts. To evaluate their understanding of such knowledge, we introduce WorldCuisines, a massive-scale benchmark for multilingual and multicultural, visually grounded language understanding. This benchmark includes a visual question answering (VQA) dataset with text-image pairs across 30 languages and dialects, spanning 9 language families and featuring over 1 million data points, making it the largest multicultural VQA benchmark to date. It includes tasks for identifying dish names and their origins. We provide evaluation datasets in two sizes (12k and 60k instances) alongside a training dataset (1 million instances). Our findings show that while VLMs perform better with correct location context, they struggle with adversarial contexts and predicting specific regional cuisines and languages. To support future research, we release a knowledge base with annotated food entries and images along with the VQA data.

Summary

AI-Generated Summary

PDF333November 16, 2024