SeeGULL: Бенчмарк стереотипов с широким географическим и культурным охватом, использующий генеративные модели
SeeGULL: A Stereotype Benchmark with Broad Geo-Cultural Coverage Leveraging Generative Models
May 19, 2023
Авторы: Akshita Jha, Aida Davani, Chandan K. Reddy, Shachi Dave, Vinodkumar Prabhakaran, Sunipa Dev
cs.AI
Аннотация
Наборы данных для оценки стереотипов имеют решающее значение для выявления и смягчения социальных стереотипов о группах людей в моделях обработки естественного языка (NLP). Однако существующие наборы данных ограничены по размеру и охвату и в основном сосредоточены на стереотипах, распространённых в западном обществе. Это особенно проблематично, поскольку языковые технологии получают всё большее распространение по всему миру. Чтобы устранить этот пробел, мы представляем SeeGULL — набор данных с широким охватом стереотипов, созданный с использованием генеративных возможностей крупных языковых моделей, таких как PaLM и GPT-3, и привлечения глобально разнообразной группы экспертов для проверки распространённости этих стереотипов в обществе. SeeGULL представлен на английском языке и содержит стереотипы о группах идентичности из 178 стран, охватывающих 8 различных геополитических регионов на 6 континентах, а также идентичности на уровне штатов в США и Индии. Мы также включаем детализированные оценки оскорбительности для различных стереотипов и демонстрируем их глобальные различия. Кроме того, мы предоставляем сравнительные аннотации об одних и тех же группах, сделанные экспертами, проживающими в регионе, и теми, кто находится в Северной Америке, и показываем, что стереотипы о группах внутри региона отличаются от тех, что распространены в Северной Америке. ПРЕДУПРЕЖДЕНИЕ: В данной статье содержатся примеры стереотипов, которые могут быть оскорбительными.
English
Stereotype benchmark datasets are crucial to detect and mitigate social
stereotypes about groups of people in NLP models. However, existing datasets
are limited in size and coverage, and are largely restricted to stereotypes
prevalent in the Western society. This is especially problematic as language
technologies gain hold across the globe. To address this gap, we present
SeeGULL, a broad-coverage stereotype dataset, built by utilizing generative
capabilities of large language models such as PaLM, and GPT-3, and leveraging a
globally diverse rater pool to validate the prevalence of those stereotypes in
society. SeeGULL is in English, and contains stereotypes about identity groups
spanning 178 countries across 8 different geo-political regions across 6
continents, as well as state-level identities within the US and India. We also
include fine-grained offensiveness scores for different stereotypes and
demonstrate their global disparities. Furthermore, we include comparative
annotations about the same groups by annotators living in the region vs. those
that are based in North America, and demonstrate that within-region stereotypes
about groups differ from those prevalent in North America. CONTENT WARNING:
This paper contains stereotype examples that may be offensive.