生成AIシステムの社会への影響評価:システムと社会における考察

Evaluating the Social Impact of Generative AI Systems in Systems and Society

June 9, 2023
著者: Irene Solaiman, Zeerak Talat, William Agnew, Lama Ahmad, Dylan Baker, Su Lin Blodgett, Hal Daumé III, Jesse Dodge, Ellie Evans, Sara Hooker, Yacine Jernite, Alexandra Sasha Luccioni, Alberto Lusoli, Margaret Mitchell, Jessica Newman, Marie-Therese Png, Andrew Strait, Apostol Vassilev
cs.AI

要旨

テキスト、画像、音声、ビデオなど多様なモダリティにわたる生成AIシステムは、広範な社会的影響を及ぼしますが、それらの影響を評価する手段や、どの影響を評価すべきかについて公式な標準は存在しません。私たちは、あらゆるモダリティの生成AIシステムを評価するための標準的なアプローチを、2つの主要なカテゴリに分けて進めています:特定のアプリケーションが定められていない基本システムで評価可能なものと、社会において評価可能なものです。具体的な社会的影響のカテゴリと、基本技術システム、そして人々と社会において評価を実施する方法について説明します。基本システムのためのフレームワークでは、7つの社会的影響カテゴリを定義しています:バイアス、ステレオタイプ、および表現的害;文化的価値とセンシティブなコンテンツ;不均一なパフォーマンス;プライバシーとデータ保護;財務コスト;環境コスト;データとコンテンツモデレーションの労働コスト。評価のための提案された方法はすべてのモダリティに適用され、既存の評価の限界の分析は、将来の評価に必要な投資の出発点として役立ちます。社会において評価可能なものについて、5つの主要なカテゴリを提供し、それぞれにサブカテゴリがあります:信頼性と自律性;不平等、周縁化、および暴力;権威の集中;労働と創造性;生態系と環境。各サブカテゴリには、害を軽減するための推奨事項が含まれています。私たちは同時に、AI研究コミュニティが与えられたカテゴリに沿って既存の評価を貢献できる評価リポジトリを作成しています。このバージョンは、ACM FAccT 2023でのCRAFTセッション後に更新される予定です。
English
Generative AI systems across modalities, ranging from text, image, audio, and video, have broad social impacts, but there exists no official standard for means of evaluating those impacts and which impacts should be evaluated. We move toward a standard approach in evaluating a generative AI system for any modality, in two overarching categories: what is able to be evaluated in a base system that has no predetermined application and what is able to be evaluated in society. We describe specific social impact categories and how to approach and conduct evaluations in the base technical system, then in people and society. Our framework for a base system defines seven categories of social impact: bias, stereotypes, and representational harms; cultural values and sensitive content; disparate performance; privacy and data protection; financial costs; environmental costs; and data and content moderation labor costs. Suggested methods for evaluation apply to all modalities and analyses of the limitations of existing evaluations serve as a starting point for necessary investment in future evaluations. We offer five overarching categories for what is able to be evaluated in society, each with their own subcategories: trustworthiness and autonomy; inequality, marginalization, and violence; concentration of authority; labor and creativity; and ecosystem and environment. Each subcategory includes recommendations for mitigating harm. We are concurrently crafting an evaluation repository for the AI research community to contribute existing evaluations along the given categories. This version will be updated following a CRAFT session at ACM FAccT 2023.
PDF90December 15, 2024