ChatPaper.aiChatPaper

Lacune nel mondo reale della ricerca sulla governance dell'IA

Real-World Gaps in AI Governance Research

April 30, 2025
Autori: Ilan Strauss, Isobel Moure, Tim O'Reilly, Sruly Rosenblat
cs.AI

Abstract

Basandoci su 1.178 articoli riguardanti sicurezza e affidabilità tratti da 9.439 pubblicazioni sull'IA generativa (gennaio 2020 - marzo 2025), confrontiamo i risultati della ricerca delle principali aziende di IA (Anthropic, Google DeepMind, Meta, Microsoft e OpenAI) e delle università specializzate in IA (CMU, MIT, NYU, Stanford, UC Berkeley e University of Washington). Rileviamo che la ricerca aziendale sull'IA si concentra sempre più su aree pre-distribuzione, come l'allineamento dei modelli e i test & valutazione, mentre l'attenzione verso problematiche legate alla fase di distribuzione, come il bias dei modelli, è diminuita. Esistono significative lacune di ricerca in domini di distribuzione ad alto rischio, tra cui sanità, finanza, disinformazione, funzionalità persuasive e addictive, allucinazioni e copyright. Senza un miglioramento dell'osservabilità delle IA distribuite, la crescente concentrazione aziendale potrebbe approfondire i deficit di conoscenza. Raccomandiamo di ampliare l'accesso dei ricercatori esterni ai dati di distribuzione e di implementare un'osservabilità sistematica dei comportamenti delle IA sul mercato.
English
Drawing on 1,178 safety and reliability papers from 9,439 generative AI papers (January 2020 - March 2025), we compare research outputs of leading AI companies (Anthropic, Google DeepMind, Meta, Microsoft, and OpenAI) and AI universities (CMU, MIT, NYU, Stanford, UC Berkeley, and University of Washington). We find that corporate AI research increasingly concentrates on pre-deployment areas -- model alignment and testing & evaluation -- while attention to deployment-stage issues such as model bias has waned. Significant research gaps exist in high-risk deployment domains, including healthcare, finance, misinformation, persuasive and addictive features, hallucinations, and copyright. Without improved observability into deployed AI, growing corporate concentration could deepen knowledge deficits. We recommend expanding external researcher access to deployment data and systematic observability of in-market AI behaviors.
PDF121May 5, 2025