SeeGULL: Ein Stereotypen-Benchmark mit breiter geokultureller Abdeckung unter Nutzung generativer Modelle
SeeGULL: A Stereotype Benchmark with Broad Geo-Cultural Coverage Leveraging Generative Models
May 19, 2023
Autoren: Akshita Jha, Aida Davani, Chandan K. Reddy, Shachi Dave, Vinodkumar Prabhakaran, Sunipa Dev
cs.AI
Zusammenfassung
Stereotypen-Benchmark-Datensätze sind entscheidend, um soziale Stereotype über Personengruppen in NLP-Modellen zu erkennen und zu mindern. Allerdings sind bestehende Datensätze in Umfang und Abdeckung begrenzt und beschränken sich weitgehend auf Stereotype, die in der westlichen Gesellschaft vorherrschen. Dies ist besonders problematisch, da Sprachtechnologien weltweit an Bedeutung gewinnen. Um diese Lücke zu schließen, präsentieren wir SeeGULL, einen breit gefächerten Stereotypen-Datensatz, der durch die Nutzung der generativen Fähigkeiten großer Sprachmodelle wie PaLM und GPT-3 erstellt wurde und auf einen global diversen Bewerterpool zurückgreift, um die Verbreitung dieser Stereotype in der Gesellschaft zu validieren. SeeGULL ist in englischer Sprache verfasst und enthält Stereotype über Identitätsgruppen aus 178 Ländern in 8 verschiedenen geopolitischen Regionen auf 6 Kontinenten sowie staatliche Identitäten innerhalb der USA und Indiens. Wir integrieren auch fein abgestufte Offensivitätsbewertungen für verschiedene Stereotype und zeigen deren globale Unterschiede auf. Darüber hinaus enthalten wir vergleichende Annotationen über dieselben Gruppen von Annotatoren, die in der Region leben, im Vergleich zu solchen, die in Nordamerika ansässig sind, und demonstrieren, dass innerhalb der Region vorherrschende Stereotype über Gruppen sich von denen in Nordamerika unterscheiden. INHALTSWARNUNG: Diese Arbeit enthält Beispiele für Stereotype, die anstößig sein können.
English
Stereotype benchmark datasets are crucial to detect and mitigate social
stereotypes about groups of people in NLP models. However, existing datasets
are limited in size and coverage, and are largely restricted to stereotypes
prevalent in the Western society. This is especially problematic as language
technologies gain hold across the globe. To address this gap, we present
SeeGULL, a broad-coverage stereotype dataset, built by utilizing generative
capabilities of large language models such as PaLM, and GPT-3, and leveraging a
globally diverse rater pool to validate the prevalence of those stereotypes in
society. SeeGULL is in English, and contains stereotypes about identity groups
spanning 178 countries across 8 different geo-political regions across 6
continents, as well as state-level identities within the US and India. We also
include fine-grained offensiveness scores for different stereotypes and
demonstrate their global disparities. Furthermore, we include comparative
annotations about the same groups by annotators living in the region vs. those
that are based in North America, and demonstrate that within-region stereotypes
about groups differ from those prevalent in North America. CONTENT WARNING:
This paper contains stereotype examples that may be offensive.