Чертежи доверия: Карточки ИИ-систем для сквозной прозрачности и управления
Blueprints of Trust: AI System Cards for End to End Transparency and Governance
September 23, 2025
Авторы: Huzaifa Sidhpurwala, Emily Fox, Garth Mollett, Florencio Cano Gabarda, Roman Zhukov
cs.AI
Аннотация
В данной статье представлена Системная Карта Опасностей (Hazard-Aware System Card, HASC) — новая концепция, разработанная для повышения прозрачности и подотчетности в процессе создания и внедрения систем искусственного интеллекта (ИИ). HASC расширяет существующие концепции карт моделей и системных карт, интегрируя всеобъемлющий и динамический учет уровня безопасности и защищенности системы ИИ. В рамках предложенного подхода вводится стандартизированная система идентификаторов, включая новый идентификатор опасностей безопасности ИИ (AI Safety Hazard, ASH ID), который дополняет существующие идентификаторы уязвимостей, такие как CVE, обеспечивая четкую и последовательную коммуникацию об устраненных недостатках. Предоставляя единый доступный источник достоверной информации, HASC позволяет разработчикам и заинтересованным сторонам принимать более обоснованные решения относительно безопасности систем ИИ на протяжении всего их жизненного цикла. В заключение мы также сравниваем предложенные системные карты ИИ со стандартом ISO/IEC 42001:2023 и обсуждаем, как они могут дополнять друг друга, обеспечивая большую прозрачность и подотчетность для систем ИИ.
English
This paper introduces the Hazard-Aware System Card (HASC), a novel framework
designed to enhance transparency and accountability in the development and
deployment of AI systems. The HASC builds upon existing model card and system
card concepts by integrating a comprehensive, dynamic record of an AI system's
security and safety posture. The framework proposes a standardized system of
identifiers, including a novel AI Safety Hazard (ASH) ID, to complement
existing security identifiers like CVEs, allowing for clear and consistent
communication of fixed flaws. By providing a single, accessible source of
truth, the HASC empowers developers and stakeholders to make more informed
decisions about AI system safety throughout its lifecycle. Ultimately, we also
compare our proposed AI system cards with the ISO/IEC 42001:2023 standard and
discuss how they can be used to complement each other, providing greater
transparency and accountability for AI systems.