Bewertung der gesellschaftlichen Auswirkungen generativer KI-Systeme in Systemen und Gesellschaft
Evaluating the Social Impact of Generative AI Systems in Systems and Society
June 9, 2023
Autoren: Irene Solaiman, Zeerak Talat, William Agnew, Lama Ahmad, Dylan Baker, Su Lin Blodgett, Hal Daumé III, Jesse Dodge, Ellie Evans, Sara Hooker, Yacine Jernite, Alexandra Sasha Luccioni, Alberto Lusoli, Margaret Mitchell, Jessica Newman, Marie-Therese Png, Andrew Strait, Apostol Vassilev
cs.AI
Zusammenfassung
Generative KI-Systeme über verschiedene Modalitäten hinweg, darunter Text, Bild, Audio und Video, haben weitreichende gesellschaftliche Auswirkungen, doch existiert bisher kein offizieller Standard für die Bewertung dieser Auswirkungen und welche Auswirkungen überhaupt bewertet werden sollten. Wir entwickeln einen Standardansatz zur Bewertung eines generativen KI-Systems für jede Modalität in zwei übergeordneten Kategorien: was in einem Basissystem ohne vordefinierte Anwendung bewertet werden kann und was in der Gesellschaft bewertet werden kann. Wir beschreiben spezifische Kategorien gesellschaftlicher Auswirkungen und wie Bewertungen im Basissystem sowie in Bezug auf Menschen und die Gesellschaft durchgeführt werden können. Unser Rahmenwerk für ein Basissystem definiert sieben Kategorien gesellschaftlicher Auswirkungen: Vorurteile, Stereotype und darstellungsbezogene Schäden; kulturelle Werte und sensible Inhalte; ungleiche Leistungsfähigkeit; Datenschutz und Datensicherheit; finanzielle Kosten; Umweltkosten; sowie Kosten für die Moderation von Daten und Inhalten. Die vorgeschlagenen Bewertungsmethoden gelten für alle Modalitäten, und die Analyse der Grenzen bestehender Bewertungen dient als Ausgangspunkt für notwendige Investitionen in zukünftige Bewertungen. Wir bieten fünf übergeordnete Kategorien für das, was in der Gesellschaft bewertet werden kann, jeweils mit eigenen Unterkategorien: Vertrauenswürdigkeit und Autonomie; Ungleichheit, Marginalisierung und Gewalt; Konzentration von Autorität; Arbeit und Kreativität; sowie Ökosystem und Umwelt. Jede Unterkategorie enthält Empfehlungen zur Schadensminderung. Gleichzeitig erstellen wir ein Bewertungsrepository für die KI-Forschungsgemeinschaft, um bestehende Bewertungen entlang der genannten Kategorien beizutragen. Diese Version wird nach einer CRAFT-Sitzung auf der ACM FAccT 2023 aktualisiert.
English
Generative AI systems across modalities, ranging from text, image, audio, and
video, have broad social impacts, but there exists no official standard for
means of evaluating those impacts and which impacts should be evaluated. We
move toward a standard approach in evaluating a generative AI system for any
modality, in two overarching categories: what is able to be evaluated in a base
system that has no predetermined application and what is able to be evaluated
in society. We describe specific social impact categories and how to approach
and conduct evaluations in the base technical system, then in people and
society. Our framework for a base system defines seven categories of social
impact: bias, stereotypes, and representational harms; cultural values and
sensitive content; disparate performance; privacy and data protection;
financial costs; environmental costs; and data and content moderation labor
costs. Suggested methods for evaluation apply to all modalities and analyses of
the limitations of existing evaluations serve as a starting point for necessary
investment in future evaluations. We offer five overarching categories for what
is able to be evaluated in society, each with their own subcategories:
trustworthiness and autonomy; inequality, marginalization, and violence;
concentration of authority; labor and creativity; and ecosystem and
environment. Each subcategory includes recommendations for mitigating harm. We
are concurrently crafting an evaluation repository for the AI research
community to contribute existing evaluations along the given categories. This
version will be updated following a CRAFT session at ACM FAccT 2023.