Hanfu-Bench: Ein multimodaler Benchmark für intertemporales Kulturverständnis und Transkreation
Hanfu-Bench: A Multimodal Benchmark on Cross-Temporal Cultural Understanding and Transcreation
June 2, 2025
Autoren: Li Zhou, Lutong Yu, Dongchu Xie, Shaohuan Cheng, Wenyan Li, Haizhou Li
cs.AI
Zusammenfassung
Kultur ist ein reiches und dynamisches Feld, das sich sowohl geografisch als auch zeitlich entwickelt. Bisherige Studien zum kulturellen Verständnis mit Vision-Language-Modellen (VLMs) betonen jedoch vor allem die geografische Vielfalt und vernachlässigen oft die entscheidenden zeitlichen Dimensionen. Um diese Lücke zu schließen, stellen wir Hanfu-Bench vor, einen neuartigen, von Experten kuratierten multimodalen Datensatz. Hanfu, ein traditionelles Gewand, das sich über alte chinesische Dynastien erstreckt, dient als repräsentatives Kulturerbe, das die tiefgreifenden zeitlichen Aspekte der chinesischen Kultur widerspiegelt und gleichzeitig in der chinesischen Gegenwartsgesellschaft äußerst beliebt ist. Hanfu-Bench umfasst zwei Kernaufgaben: kulturelles visuelles Verständnis und kulturelle Bildtranskreation. Die erste Aufgabe untersucht die Erkennung zeitlich-kultureller Merkmale basierend auf Einzel- oder Mehrfachbild-Eingaben durch Multiple-Choice-Fragen zur visuellen Beantwortung, während die zweite Aufgabe darauf abzielt, traditionelle Kleidung durch die Übernahme kultureller Elemente und die Anpassung an moderne Kontexte in moderne Designs zu transformieren. Unsere Auswertung zeigt, dass geschlossene VLMs beim visuellen kulturellen Verständnis ähnlich abschneiden wie Laien, jedoch um 10\% hinter menschlichen Experten zurückbleiben, während offene VLMs noch weiter hinter Laien zurückliegen. Für die Transkreationsaufgabe zeigt eine vielschichtige menschliche Bewertung, dass das leistungsstärkste Modell nur eine Erfolgsquote von 42\% erreicht. Unser Benchmark bietet eine wesentliche Testumgebung, die erhebliche Herausforderungen in dieser neuen Richtung des zeitlichen kulturellen Verständnisses und der kreativen Anpassung aufzeigt.
English
Culture is a rich and dynamic domain that evolves across both geography and
time. However, existing studies on cultural understanding with vision-language
models (VLMs) primarily emphasize geographic diversity, often overlooking the
critical temporal dimensions. To bridge this gap, we introduce Hanfu-Bench, a
novel, expert-curated multimodal dataset. Hanfu, a traditional garment spanning
ancient Chinese dynasties, serves as a representative cultural heritage that
reflects the profound temporal aspects of Chinese culture while remaining
highly popular in Chinese contemporary society. Hanfu-Bench comprises two core
tasks: cultural visual understanding and cultural image transcreation.The
former task examines temporal-cultural feature recognition based on single- or
multi-image inputs through multiple-choice visual question answering, while the
latter focuses on transforming traditional attire into modern designs through
cultural element inheritance and modern context adaptation. Our evaluation
shows that closed VLMs perform comparably to non-experts on visual cutural
understanding but fall short by 10\% to human experts, while open VLMs lags
further behind non-experts. For the transcreation task, multi-faceted human
evaluation indicates that the best-performing model achieves a success rate of
only 42\%. Our benchmark provides an essential testbed, revealing significant
challenges in this new direction of temporal cultural understanding and
creative adaptation.