Brechas en la Investigación sobre Gobernanza de la IA en el Mundo Real
Real-World Gaps in AI Governance Research
April 30, 2025
Autores: Ilan Strauss, Isobel Moure, Tim O'Reilly, Sruly Rosenblat
cs.AI
Resumen
Basándonos en 1,178 artículos sobre seguridad y confiabilidad extraídos de 9,439 trabajos sobre inteligencia artificial generativa (enero 2020 - marzo 2025), comparamos los resultados de investigación de las principales empresas de IA (Anthropic, Google DeepMind, Meta, Microsoft y OpenAI) y universidades especializadas en IA (CMU, MIT, NYU, Stanford, UC Berkeley y la Universidad de Washington). Encontramos que la investigación corporativa en IA se concentra cada vez más en áreas previas al despliegue, como la alineación de modelos y las pruebas y evaluaciones, mientras que la atención a problemas en la etapa de despliegue, como el sesgo de los modelos, ha disminuido. Existen brechas significativas de investigación en dominios de despliegue de alto riesgo, incluyendo atención médica, finanzas, desinformación, características persuasivas y adictivas, alucinaciones y derechos de autor. Sin una mayor observabilidad de las IA desplegadas, la creciente concentración corporativa podría profundizar los déficits de conocimiento. Recomendamos ampliar el acceso de investigadores externos a los datos de despliegue y establecer una observabilidad sistemática del comportamiento de las IA en el mercado.
English
Drawing on 1,178 safety and reliability papers from 9,439 generative AI
papers (January 2020 - March 2025), we compare research outputs of leading AI
companies (Anthropic, Google DeepMind, Meta, Microsoft, and OpenAI) and AI
universities (CMU, MIT, NYU, Stanford, UC Berkeley, and University of
Washington). We find that corporate AI research increasingly concentrates on
pre-deployment areas -- model alignment and testing & evaluation -- while
attention to deployment-stage issues such as model bias has waned. Significant
research gaps exist in high-risk deployment domains, including healthcare,
finance, misinformation, persuasive and addictive features, hallucinations, and
copyright. Without improved observability into deployed AI, growing corporate
concentration could deepen knowledge deficits. We recommend expanding external
researcher access to deployment data and systematic observability of in-market
AI behaviors.Summary
AI-Generated Summary