Lacunas do Mundo Real na Pesquisa sobre Governança de IA
Real-World Gaps in AI Governance Research
April 30, 2025
Autores: Ilan Strauss, Isobel Moure, Tim O'Reilly, Sruly Rosenblat
cs.AI
Resumo
Com base em 1.178 artigos sobre segurança e confiabilidade extraídos de 9.439 artigos de IA generativa (janeiro de 2020 - março de 2025), comparamos as produções de pesquisa das principais empresas de IA (Anthropic, Google DeepMind, Meta, Microsoft e OpenAI) e universidades de IA (CMU, MIT, NYU, Stanford, UC Berkeley e Universidade de Washington). Constatamos que a pesquisa corporativa em IA está cada vez mais concentrada em áreas pré-implantação — como alinhamento de modelos e testes & avaliação — enquanto a atenção a questões da fase de implantação, como viés de modelos, diminuiu. Existem lacunas significativas de pesquisa em domínios de implantação de alto risco, incluindo saúde, finanças, desinformação, recursos persuasivos e viciantes, alucinações e direitos autorais. Sem uma melhor observabilidade das IAs implantadas, a crescente concentração corporativa pode aprofundar os déficits de conhecimento. Recomendamos expandir o acesso de pesquisadores externos aos dados de implantação e a observabilidade sistemática do comportamento das IAs em uso no mercado.
English
Drawing on 1,178 safety and reliability papers from 9,439 generative AI
papers (January 2020 - March 2025), we compare research outputs of leading AI
companies (Anthropic, Google DeepMind, Meta, Microsoft, and OpenAI) and AI
universities (CMU, MIT, NYU, Stanford, UC Berkeley, and University of
Washington). We find that corporate AI research increasingly concentrates on
pre-deployment areas -- model alignment and testing & evaluation -- while
attention to deployment-stage issues such as model bias has waned. Significant
research gaps exist in high-risk deployment domains, including healthcare,
finance, misinformation, persuasive and addictive features, hallucinations, and
copyright. Without improved observability into deployed AI, growing corporate
concentration could deepen knowledge deficits. We recommend expanding external
researcher access to deployment data and systematic observability of in-market
AI behaviors.