Соперничающие концепции этического ИИ: кейс-стади OpenAI
Competing Visions of Ethical AI: A Case Study of OpenAI
January 23, 2026
Авторы: Melissa Wilfley, Mengting Ai, Madelyn Rose Sanfilippo
cs.AI
Аннотация
Введение. Понятие этики ИИ по-разному трактуется различными участниками и группами стейкхолдеров. Мы представляем результаты кейс-стади компании OpenAI, анализирующего дискурс об этике ИИ. Метод. Исследование было направлено на ответ на вопрос: как публичный дискурс OpenAI использовал понятия «этика», «безопасность», «соответствие целям» и смежные концепции с течением времени и что этот дискурс сигнализирует о практических подходах к формированию повестки? Структурированный корпус текстов, дифференцирующий коммуникацию для широкой аудитории и для академического сообщества, был собран из публичной документации. Анализ. Качественный контент-анализ этических тем сочетал индуктивно выведенные и дедуктивно применяемые коды. Количественный анализ использовал методы вычислительного контент-анализа с применением NLP для моделирования тем и количественной оценки изменений в риторике с течением времени. Визуализации отображают агрегированные результаты. Для обеспечения воспроизводимости результатов наш код опубликован по адресу https://github.com/famous-blue-raincoat/AI_Ethics_Discourse. Результаты. Результаты показывают, что дискурс о безопасности и рисках доминирует в публичной коммуникации и документации OpenAI без применения академических и правозащитных этических рамок или терминологии. Выводы. Представлены последствия для регулирования, а также обсуждение практик «этического камуфляжа» (ethics-washing) в индустрии.
English
Introduction. AI Ethics is framed distinctly across actors and stakeholder groups. We report results from a case study of OpenAI analysing ethical AI discourse. Method. Research addressed: How has OpenAI's public discourse leveraged 'ethics', 'safety', 'alignment' and adjacent related concepts over time, and what does discourse signal about framing in practice? A structured corpus, differentiating between communication for a general audience and communication with an academic audience, was assembled from public documentation. Analysis. Qualitative content analysis of ethical themes combined inductively derived and deductively applied codes. Quantitative analysis leveraged computational content analysis methods via NLP to model topics and quantify changes in rhetoric over time. Visualizations report aggregate results. For reproducible results, we have released our code at https://github.com/famous-blue-raincoat/AI_Ethics_Discourse. Results. Results indicate that safety and risk discourse dominate OpenAI's public communication and documentation, without applying academic and advocacy ethics frameworks or vocabularies. Conclusions. Implications for governance are presented, along with discussion of ethics-washing practices in industry.