Konkurrierende Visionen für ethische KI: Eine Fallstudie zu OpenAI
Competing Visions of Ethical AI: A Case Study of OpenAI
January 23, 2026
Autoren: Melissa Wilfley, Mengting Ai, Madelyn Rose Sanfilippo
cs.AI
Zusammenfassung
Einleitung. Die ethische Bewertung von KI wird von verschiedenen Akteuren und Interessengruppen unterschiedlich gerahmt. Wir berichten über die Ergebnisse einer Fallstudie zu OpenAI, die den ethischen KI-Diskurs analysiert. Methode. Die Forschung untersuchte: Wie hat der öffentliche Diskurs von OpenAI im Zeitverlauf die Begriffe ‚Ethik‘, ‚Sicherheit‘, ‚Ausrichtung‘ (Alignment) und verwandte Konzepte aufgegriffen, und was signalisiert der Diskurs über die praktische Rahmung? Ein strukturiertes Korpus, das zwischen Kommunikation für ein allgemeines Publikum und Kommunikation mit einem akademischen Publikum differenziert, wurde aus öffentlichen Dokumenten zusammengestellt. Analyse. Die qualitative Inhaltsanalyse ethischer Themen kombinierte induktiv abgeleitete und deduktiv angewandte Codes. Die quantitative Analyse nutzte computergestützte Inhaltsanalysemethoden mittels NLP, um Themen zu modellieren und Veränderungen in der Rhetorik über die Zeit zu quantifizieren. Visualisierungen stellen aggregierte Ergebnisse dar. Um reproduzierbare Ergebnisse zu gewährleisten, haben wir unseren Code unter https://github.com/famous-blue-raincoat/AI_Ethics_Discourse veröffentlicht. Ergebnisse. Die Ergebnisse deuten darauf hin, dass Sicherheits- und Risikodiskurse die öffentliche Kommunikation und Dokumentation von OpenAI dominieren, ohne dass akademische ethische Rahmenwerke oder Vokabulare von Interessenvertretungen angewendet werden. Schlussfolgerungen. Implikationen für die Governance werden dargestellt, zusammen mit einer Diskussion über Ethik-Washing-Praktiken in der Industrie.
English
Introduction. AI Ethics is framed distinctly across actors and stakeholder groups. We report results from a case study of OpenAI analysing ethical AI discourse. Method. Research addressed: How has OpenAI's public discourse leveraged 'ethics', 'safety', 'alignment' and adjacent related concepts over time, and what does discourse signal about framing in practice? A structured corpus, differentiating between communication for a general audience and communication with an academic audience, was assembled from public documentation. Analysis. Qualitative content analysis of ethical themes combined inductively derived and deductively applied codes. Quantitative analysis leveraged computational content analysis methods via NLP to model topics and quantify changes in rhetoric over time. Visualizations report aggregate results. For reproducible results, we have released our code at https://github.com/famous-blue-raincoat/AI_Ethics_Discourse. Results. Results indicate that safety and risk discourse dominate OpenAI's public communication and documentation, without applying academic and advocacy ethics frameworks or vocabularies. Conclusions. Implications for governance are presented, along with discussion of ethics-washing practices in industry.