倫理的AIをめぐる競合するビジョン:OpenAIの事例研究
Competing Visions of Ethical AI: A Case Study of OpenAI
January 23, 2026
著者: Melissa Wilfley, Mengting Ai, Madelyn Rose Sanfilippo
cs.AI
要旨
序文. AI倫理は、アクターやステークホルダーグループによって異なる枠組みで捉えられている。本稿ではOpenAIを事例研究とし、倫理的AIに関する言説を分析した結果を報告する。手法. 本研究は以下の問いに答えるものである:「時間の経過とともに、OpenAIの公的言説は『倫理』『安全性』『アラインメント』及び関連概念をどのように活用してきたか、またその言説は実践における枠組みについて何を示唆しているか?」一般向けコミュニケーションと学術的コミュニケーションを区別した構造化コーパスを公開文書から構築した。分析. 倫理的テーマの質的內容分析では、帰納的に導出されたコードと演繹的に適用されたコードを組み合わせた。量的分析では、自然言語処理による計算的內容分析手法を活用し、トピックをモデル化し、レトリックの時間的変化を定量化した。集計結果は可視化して報告する。再現性確保のため、コードをhttps://github.com/famous-blue-raincoat/AI_Ethics_Discourseで公開している。結果. 結果は、安全性とリスクに関する言説がOpenAIの公的コミュニケーションと文書化を支配しており、学術界やアドボカシー団体の倫理フレームワークや用語が適用されていないことを示唆している。結論. ガバナンスへの示唆と併せて、産業界におけるエシックスウォッシング(倫理ごまかし)の実践について考察する。
English
Introduction. AI Ethics is framed distinctly across actors and stakeholder groups. We report results from a case study of OpenAI analysing ethical AI discourse. Method. Research addressed: How has OpenAI's public discourse leveraged 'ethics', 'safety', 'alignment' and adjacent related concepts over time, and what does discourse signal about framing in practice? A structured corpus, differentiating between communication for a general audience and communication with an academic audience, was assembled from public documentation. Analysis. Qualitative content analysis of ethical themes combined inductively derived and deductively applied codes. Quantitative analysis leveraged computational content analysis methods via NLP to model topics and quantify changes in rhetoric over time. Visualizations report aggregate results. For reproducible results, we have released our code at https://github.com/famous-blue-raincoat/AI_Ethics_Discourse. Results. Results indicate that safety and risk discourse dominate OpenAI's public communication and documentation, without applying academic and advocacy ethics frameworks or vocabularies. Conclusions. Implications for governance are presented, along with discussion of ethics-washing practices in industry.