Visões Concorrentes de IA Ética: Um Estudo de Caso da OpenAI
Competing Visions of Ethical AI: A Case Study of OpenAI
January 23, 2026
Autores: Melissa Wilfley, Mengting Ai, Madelyn Rose Sanfilippo
cs.AI
Resumo
Introdução. A ética da IA é enquadrada de forma distinta entre os atores e grupos de interessados. Relatamos os resultados de um estudo de caso da OpenAI que analisa o discurso ético sobre IA. Método. A pesquisa abordou: Como o discurso público da OpenAI tem utilizado os conceitos de 'ética', 'segurança', 'alinhamento' e conceitos adjacentes ao longo do tempo, e o que o discurso sinaliza sobre o enquadramento na prática? Um corpus estruturado, diferenciando a comunicação para o público em geral da comunicação com o público académico, foi montado a partir de documentação pública. Análise. A análise de conteúdo qualitativa de temas éticos combinou códigos derivados indutivamente e aplicados dedutivamente. A análise quantitativa aproveitou métodos computacionais de análise de conteúdo via PLN para modelar tópicos e quantificar mudanças na retórica ao longo do tempo. Visualizações reportam os resultados agregados. Para resultados reproduzíveis, disponibilizámos o nosso código em https://github.com/famous-blue-raincoat/AI_Ethics_Discourse. Resultados. Os resultados indicam que o discurso sobre segurança e risco domina a comunicação e documentação públicas da OpenAI, sem a aplicação de quadros ou vocabulários éticos académicos e de advocacy. Conclusões. São apresentadas implicações para a governação, juntamente com uma discussão sobre práticas de _ethics-washing_ na indústria.
English
Introduction. AI Ethics is framed distinctly across actors and stakeholder groups. We report results from a case study of OpenAI analysing ethical AI discourse. Method. Research addressed: How has OpenAI's public discourse leveraged 'ethics', 'safety', 'alignment' and adjacent related concepts over time, and what does discourse signal about framing in practice? A structured corpus, differentiating between communication for a general audience and communication with an academic audience, was assembled from public documentation. Analysis. Qualitative content analysis of ethical themes combined inductively derived and deductively applied codes. Quantitative analysis leveraged computational content analysis methods via NLP to model topics and quantify changes in rhetoric over time. Visualizations report aggregate results. For reproducible results, we have released our code at https://github.com/famous-blue-raincoat/AI_Ethics_Discourse. Results. Results indicate that safety and risk discourse dominate OpenAI's public communication and documentation, without applying academic and advocacy ethics frameworks or vocabularies. Conclusions. Implications for governance are presented, along with discussion of ethics-washing practices in industry.