Mappe della Fiducia: Schede di Sistema AI per Trasparenza e Governance End-to-End
Blueprints of Trust: AI System Cards for End to End Transparency and Governance
September 23, 2025
Autori: Huzaifa Sidhpurwala, Emily Fox, Garth Mollett, Florencio Cano Gabarda, Roman Zhukov
cs.AI
Abstract
Questo articolo introduce l'Hazard-Aware System Card (HASC), un nuovo framework progettato per migliorare la trasparenza e la responsabilità nello sviluppo e nell'implementazione di sistemi di intelligenza artificiale (AI). L'HASC si basa sui concetti esistenti di model card e system card, integrando un registro completo e dinamico dello stato di sicurezza e sicurezza di un sistema AI. Il framework propone un sistema standardizzato di identificatori, tra cui un nuovo AI Safety Hazard (ASH) ID, per integrare gli identificatori di sicurezza esistenti come i CVE, consentendo una comunicazione chiara e coerente delle vulnerabilità risolte. Fornendo un'unica fonte di verità accessibile, l'HASC consente agli sviluppatori e agli stakeholder di prendere decisioni più informate sulla sicurezza dei sistemi AI durante tutto il loro ciclo di vita. Infine, confrontiamo le nostre proposte di system card AI con lo standard ISO/IEC 42001:2023 e discutiamo come possano essere utilizzate per integrarsi reciprocamente, offrendo una maggiore trasparenza e responsabilità per i sistemi AI.
English
This paper introduces the Hazard-Aware System Card (HASC), a novel framework
designed to enhance transparency and accountability in the development and
deployment of AI systems. The HASC builds upon existing model card and system
card concepts by integrating a comprehensive, dynamic record of an AI system's
security and safety posture. The framework proposes a standardized system of
identifiers, including a novel AI Safety Hazard (ASH) ID, to complement
existing security identifiers like CVEs, allowing for clear and consistent
communication of fixed flaws. By providing a single, accessible source of
truth, the HASC empowers developers and stakeholders to make more informed
decisions about AI system safety throughout its lifecycle. Ultimately, we also
compare our proposed AI system cards with the ISO/IEC 42001:2023 standard and
discuss how they can be used to complement each other, providing greater
transparency and accountability for AI systems.