Оценка социального воздействия генеративных ИИ-систем на системы и общество

Evaluating the Social Impact of Generative AI Systems in Systems and Society

June 9, 2023
Авторы: Irene Solaiman, Zeerak Talat, William Agnew, Lama Ahmad, Dylan Baker, Su Lin Blodgett, Hal Daumé III, Jesse Dodge, Ellie Evans, Sara Hooker, Yacine Jernite, Alexandra Sasha Luccioni, Alberto Lusoli, Margaret Mitchell, Jessica Newman, Marie-Therese Png, Andrew Strait, Apostol Vassilev
cs.AI

Аннотация

Генеративные системы искусственного интеллекта, охватывающие различные модальности, такие как текст, изображения, аудио и видео, оказывают широкое социальное воздействие, однако официального стандарта для оценки этих воздействий и того, какие именно воздействия следует оценивать, не существует. Мы предлагаем подход к стандартизации оценки генеративных систем ИИ для любой модальности, выделяя две основные категории: что можно оценить в базовой системе, не имеющей заранее определенного применения, и что можно оценить в обществе. Мы описываем конкретные категории социального воздействия и подходы к проведению оценок как в базовой технической системе, так и в контексте людей и общества. Наша структура для базовой системы определяет семь категорий социального воздействия: предвзятость, стереотипы и репрезентационный вред; культурные ценности и чувствительный контент; неравномерная производительность; конфиденциальность и защита данных; финансовые затраты; экологические затраты; а также затраты на модерацию данных и контента. Предложенные методы оценки применимы ко всем модальностям, а анализ ограничений существующих оценок служит отправной точкой для необходимых инвестиций в будущие исследования. Мы предлагаем пять основных категорий для оценки в обществе, каждая из которых включает свои подкатегории: доверие и автономия; неравенство, маргинализация и насилие; концентрация власти; труд и творчество; а также экосистема и окружающая среда. Каждая подкатегория содержит рекомендации по смягчению вреда. Параллельно мы создаем репозиторий оценок для сообщества исследователей ИИ, чтобы они могли вносить существующие оценки по указанным категориям. Эта версия будет обновлена после сессии CRAFT на конференции ACM FAccT 2023.
English
Generative AI systems across modalities, ranging from text, image, audio, and video, have broad social impacts, but there exists no official standard for means of evaluating those impacts and which impacts should be evaluated. We move toward a standard approach in evaluating a generative AI system for any modality, in two overarching categories: what is able to be evaluated in a base system that has no predetermined application and what is able to be evaluated in society. We describe specific social impact categories and how to approach and conduct evaluations in the base technical system, then in people and society. Our framework for a base system defines seven categories of social impact: bias, stereotypes, and representational harms; cultural values and sensitive content; disparate performance; privacy and data protection; financial costs; environmental costs; and data and content moderation labor costs. Suggested methods for evaluation apply to all modalities and analyses of the limitations of existing evaluations serve as a starting point for necessary investment in future evaluations. We offer five overarching categories for what is able to be evaluated in society, each with their own subcategories: trustworthiness and autonomy; inequality, marginalization, and violence; concentration of authority; labor and creativity; and ecosystem and environment. Each subcategory includes recommendations for mitigating harm. We are concurrently crafting an evaluation repository for the AI research community to contribute existing evaluations along the given categories. This version will be updated following a CRAFT session at ACM FAccT 2023.
PDF90December 15, 2024