Evaluación del Impacto Social de los Sistemas de IA Generativa en Sistemas y Sociedad

Evaluating the Social Impact of Generative AI Systems in Systems and Society

June 9, 2023
Autores: Irene Solaiman, Zeerak Talat, William Agnew, Lama Ahmad, Dylan Baker, Su Lin Blodgett, Hal Daumé III, Jesse Dodge, Ellie Evans, Sara Hooker, Yacine Jernite, Alexandra Sasha Luccioni, Alberto Lusoli, Margaret Mitchell, Jessica Newman, Marie-Therese Png, Andrew Strait, Apostol Vassilev
cs.AI

Resumen

Los sistemas de IA generativa en múltiples modalidades, que abarcan texto, imagen, audio y video, tienen amplios impactos sociales, pero no existe un estándar oficial para evaluar dichos impactos ni para determinar cuáles deberían ser evaluados. Avanzamos hacia un enfoque estándar para evaluar un sistema de IA generativa en cualquier modalidad, en dos categorías principales: lo que puede evaluarse en un sistema base sin una aplicación predeterminada y lo que puede evaluarse en la sociedad. Describimos categorías específicas de impacto social y cómo abordar y realizar evaluaciones en el sistema técnico base, y luego en las personas y la sociedad. Nuestro marco para un sistema base define siete categorías de impacto social: sesgos, estereotipos y daños representacionales; valores culturales y contenido sensible; desempeño desigual; privacidad y protección de datos; costos financieros; costos ambientales; y costos laborales de moderación de datos y contenido. Los métodos sugeridos para la evaluación se aplican a todas las modalidades, y los análisis de las limitaciones de las evaluaciones existentes sirven como punto de partida para la inversión necesaria en evaluaciones futuras. Ofrecemos cinco categorías principales para lo que puede evaluarse en la sociedad, cada una con sus propias subcategorías: confiabilidad y autonomía; desigualdad, marginación y violencia; concentración de autoridad; trabajo y creatividad; y ecosistema y medio ambiente. Cada subcategoría incluye recomendaciones para mitigar daños. Simultáneamente, estamos creando un repositorio de evaluación para que la comunidad de investigación en IA contribuya con evaluaciones existentes en las categorías dadas. Esta versión se actualizará tras una sesión CRAFT en ACM FAccT 2023.
English
Generative AI systems across modalities, ranging from text, image, audio, and video, have broad social impacts, but there exists no official standard for means of evaluating those impacts and which impacts should be evaluated. We move toward a standard approach in evaluating a generative AI system for any modality, in two overarching categories: what is able to be evaluated in a base system that has no predetermined application and what is able to be evaluated in society. We describe specific social impact categories and how to approach and conduct evaluations in the base technical system, then in people and society. Our framework for a base system defines seven categories of social impact: bias, stereotypes, and representational harms; cultural values and sensitive content; disparate performance; privacy and data protection; financial costs; environmental costs; and data and content moderation labor costs. Suggested methods for evaluation apply to all modalities and analyses of the limitations of existing evaluations serve as a starting point for necessary investment in future evaluations. We offer five overarching categories for what is able to be evaluated in society, each with their own subcategories: trustworthiness and autonomy; inequality, marginalization, and violence; concentration of authority; labor and creativity; and ecosystem and environment. Each subcategory includes recommendations for mitigating harm. We are concurrently crafting an evaluation repository for the AI research community to contribute existing evaluations along the given categories. This version will be updated following a CRAFT session at ACM FAccT 2023.
PDF90December 15, 2024