Reële lacunes in onderzoek naar AI-bestuur
Real-World Gaps in AI Governance Research
April 30, 2025
Auteurs: Ilan Strauss, Isobel Moure, Tim O'Reilly, Sruly Rosenblat
cs.AI
Samenvatting
Op basis van 1.178 artikelen over veiligheid en betrouwbaarheid uit 9.439 artikelen over generatieve AI (januari 2020 - maart 2025), vergelijken we de onderzoeksoutput van toonaangevende AI-bedrijven (Anthropic, Google DeepMind, Meta, Microsoft en OpenAI) en AI-universiteiten (CMU, MIT, NYU, Stanford, UC Berkeley en de University of Washington). We constateren dat bedrijfsonderzoek naar AI zich steeds meer concentreert op pre-implementatiegebieden — modelalignment en testen & evaluatie — terwijl aandacht voor implementatiefaseproblemen zoals modelbias is afgenomen. Er bestaan aanzienlijke onderzoekslacunes in hoogrisico-implementatiedomeinen, waaronder gezondheidszorg, financiën, desinformatie, overtuigende en verslavende functies, hallucinaties en auteursrecht. Zonder verbeterde observeerbaarheid van geïmplementeerde AI, zou de groeiende concentratie bij bedrijven kennisachterstanden kunnen vergroten. Wij bevelen aan om de toegang van externe onderzoekers tot implementatiegegevens en systematische observeerbaarheid van AI-gedragingen in de markt uit te breiden.
English
Drawing on 1,178 safety and reliability papers from 9,439 generative AI
papers (January 2020 - March 2025), we compare research outputs of leading AI
companies (Anthropic, Google DeepMind, Meta, Microsoft, and OpenAI) and AI
universities (CMU, MIT, NYU, Stanford, UC Berkeley, and University of
Washington). We find that corporate AI research increasingly concentrates on
pre-deployment areas -- model alignment and testing & evaluation -- while
attention to deployment-stage issues such as model bias has waned. Significant
research gaps exist in high-risk deployment domains, including healthcare,
finance, misinformation, persuasive and addictive features, hallucinations, and
copyright. Without improved observability into deployed AI, growing corporate
concentration could deepen knowledge deficits. We recommend expanding external
researcher access to deployment data and systematic observability of in-market
AI behaviors.