ChatPaper.aiChatPaper

DialectGen : Évaluation et amélioration de la robustesse dialectique dans la génération multimodale

DialectGen: Benchmarking and Improving Dialect Robustness in Multimodal Generation

October 16, 2025
papers.authors: Yu Zhou, Sohyun An, Haikang Deng, Da Yin, Clark Peng, Cho-Jui Hsieh, Kai-Wei Chang, Nanyun Peng
cs.AI

papers.abstract

Les langues de contact comme l'anglais présentent de riches variations régionales sous la forme de dialectes, souvent utilisés par les locuteurs de ces dialectes lorsqu'ils interagissent avec des modèles génératifs. Cependant, les modèles génératifs multimodaux peuvent-ils produire efficacement du contenu à partir d'une entrée textuelle dialectale ? Dans ce travail, nous étudions cette question en construisant un nouveau benchmark à grande échelle couvrant six dialectes anglais courants. Nous collaborons avec des locuteurs de dialectes pour collecter et vérifier plus de 4200 prompts uniques, et nous évaluons 17 modèles génératifs d'images et de vidéos. Nos résultats d'évaluation automatique et humaine montrent que les modèles génératifs multimodaux actuels les plus performants subissent une dégradation de performance de 32,26 % à 48,17 % lorsqu'un seul mot dialectal est utilisé dans le prompt. Les méthodes courantes d'atténuation, telles que le fine-tuning et la réécriture des prompts, ne permettent d'améliorer que marginalement la performance sur les dialectes (< 7 %), tout en risquant de provoquer une dégradation significative de la performance sur l'anglais américain standard (SAE). À cette fin, nous concevons une stratégie générale d'atténuation basée sur un encodeur pour les modèles génératifs multimodaux. Notre méthode apprend au modèle à reconnaître de nouvelles caractéristiques dialectales tout en préservant la performance sur le SAE. Les expériences sur des modèles tels que Stable Diffusion 1.5 montrent que notre méthode permet d'augmenter simultanément la performance sur cinq dialectes pour la mettre au niveau du SAE (+34,4 %), tout en engendrant un coût quasi nul pour la performance sur le SAE.
English
Contact languages like English exhibit rich regional variations in the form of dialects, which are often used by dialect speakers interacting with generative models. However, can multimodal generative models effectively produce content given dialectal textual input? In this work, we study this question by constructing a new large-scale benchmark spanning six common English dialects. We work with dialect speakers to collect and verify over 4200 unique prompts and evaluate on 17 image and video generative models. Our automatic and human evaluation results show that current state-of-the-art multimodal generative models exhibit 32.26% to 48.17% performance degradation when a single dialect word is used in the prompt. Common mitigation methods such as fine-tuning and prompt rewriting can only improve dialect performance by small margins (< 7%), while potentially incurring significant performance degradation in Standard American English (SAE). To this end, we design a general encoder-based mitigation strategy for multimodal generative models. Our method teaches the model to recognize new dialect features while preserving SAE performance. Experiments on models such as Stable Diffusion 1.5 show that our method is able to simultaneously raise performance on five dialects to be on par with SAE (+34.4%), while incurring near zero cost to SAE performance.
PDF52December 21, 2025