Реальные пробелы в исследованиях управления искусственным интеллектом
Real-World Gaps in AI Governance Research
April 30, 2025
Авторы: Ilan Strauss, Isobel Moure, Tim O'Reilly, Sruly Rosenblat
cs.AI
Аннотация
На основе анализа 1 178 статей по безопасности и надежности из 9 439 работ по генеративному ИИ (январь 2020 - март 2025) мы сравниваем результаты исследований ведущих компаний в области ИИ (Anthropic, Google DeepMind, Meta, Microsoft и OpenAI) и университетов (CMU, MIT, NYU, Стэнфорд, UC Berkeley и Университет Вашингтона). Мы обнаруживаем, что корпоративные исследования ИИ все больше сосредотачиваются на предварительных этапах — согласовании моделей и тестировании с оценкой — в то время как внимание к проблемам этапа внедрения, таким как смещение моделей, снизилось. Значительные пробелы в исследованиях существуют в высокорисковых областях внедрения, включая здравоохранение, финансы, дезинформацию, убеждающие и вызывающие зависимость функции, галлюцинации и вопросы авторского права. Без улучшения наблюдаемости за внедренными системами ИИ растущая концентрация корпоративных исследований может усугубить дефицит знаний. Мы рекомендуем расширить доступ внешних исследователей к данным о внедрении и систематическую наблюдаемость за поведением ИИ на рынке.
English
Drawing on 1,178 safety and reliability papers from 9,439 generative AI
papers (January 2020 - March 2025), we compare research outputs of leading AI
companies (Anthropic, Google DeepMind, Meta, Microsoft, and OpenAI) and AI
universities (CMU, MIT, NYU, Stanford, UC Berkeley, and University of
Washington). We find that corporate AI research increasingly concentrates on
pre-deployment areas -- model alignment and testing & evaluation -- while
attention to deployment-stage issues such as model bias has waned. Significant
research gaps exist in high-risk deployment domains, including healthcare,
finance, misinformation, persuasive and addictive features, hallucinations, and
copyright. Without improved observability into deployed AI, growing corporate
concentration could deepen knowledge deficits. We recommend expanding external
researcher access to deployment data and systematic observability of in-market
AI behaviors.Summary
AI-Generated Summary