ChatPaper.aiChatPaper

DialectGen: Benchmarking und Verbesserung der Dialektrobustheit in der multimodalen Generierung

DialectGen: Benchmarking and Improving Dialect Robustness in Multimodal Generation

October 16, 2025
papers.authors: Yu Zhou, Sohyun An, Haikang Deng, Da Yin, Clark Peng, Cho-Jui Hsieh, Kai-Wei Chang, Nanyun Peng
cs.AI

papers.abstract

Kontaktsprachen wie Englisch weisen reiche regionale Variationen in Form von Dialekten auf, die häufig von Dialektsprechern verwendet werden, die mit generativen Modellen interagieren. Allerdings können multimodale generative Modelle effektiv Inhalte erzeugen, wenn sie dialektale Textinputs erhalten? In dieser Arbeit untersuchen wir diese Frage, indem wir einen neuen groß angelegten Benchmark erstellen, der sechs gängige englische Dialekte umfasst. Wir arbeiten mit Dialektsprechern zusammen, um über 4200 einzigartige Prompts zu sammeln und zu verifizieren, und evaluieren 17 Bild- und Video-generierende Modelle. Unsere automatischen und menschlichen Evaluationsergebnisse zeigen, dass aktuelle state-of-the-art multimodale generative Modelle eine Leistungsverschlechterung von 32,26 % bis 48,17 % aufweisen, wenn ein einzelnes Dialektwort im Prompt verwendet wird. Gängige Gegenmaßnahmen wie Fine-Tuning und Prompt-Rewriting können die Dialektleistung nur in geringem Maße verbessern (< 7 %), während sie potenziell eine signifikante Leistungsverschlechterung im Standard American English (SAE) verursachen. Zu diesem Zweck entwerfen wir eine allgemeine, encoderbasierte Gegenstrategie für multimodale generative Modelle. Unsere Methode bringt dem Modell bei, neue Dialektmerkmale zu erkennen, während die SAE-Leistung erhalten bleibt. Experimente mit Modellen wie Stable Diffusion 1.5 zeigen, dass unsere Methode in der Lage ist, die Leistung bei fünf Dialekten gleichzeitig auf das Niveau von SAE zu steigern (+34,4 %), während die SAE-Leistung nahezu unverändert bleibt.
English
Contact languages like English exhibit rich regional variations in the form of dialects, which are often used by dialect speakers interacting with generative models. However, can multimodal generative models effectively produce content given dialectal textual input? In this work, we study this question by constructing a new large-scale benchmark spanning six common English dialects. We work with dialect speakers to collect and verify over 4200 unique prompts and evaluate on 17 image and video generative models. Our automatic and human evaluation results show that current state-of-the-art multimodal generative models exhibit 32.26% to 48.17% performance degradation when a single dialect word is used in the prompt. Common mitigation methods such as fine-tuning and prompt rewriting can only improve dialect performance by small margins (< 7%), while potentially incurring significant performance degradation in Standard American English (SAE). To this end, we design a general encoder-based mitigation strategy for multimodal generative models. Our method teaches the model to recognize new dialect features while preserving SAE performance. Experiments on models such as Stable Diffusion 1.5 show that our method is able to simultaneously raise performance on five dialects to be on par with SAE (+34.4%), while incurring near zero cost to SAE performance.
PDF52October 17, 2025