Plans de Confiance : Cartes Systèmes IA pour une Transparence et une Gouvernance de Bout en Bout
Blueprints of Trust: AI System Cards for End to End Transparency and Governance
September 23, 2025
papers.authors: Huzaifa Sidhpurwala, Emily Fox, Garth Mollett, Florencio Cano Gabarda, Roman Zhukov
cs.AI
papers.abstract
Cet article présente le Hazard-Aware System Card (HASC), un cadre novateur conçu pour améliorer la transparence et la responsabilité dans le développement et le déploiement des systèmes d'intelligence artificielle (IA). Le HASC s'appuie sur les concepts existants de fiches de modèle et de fiches de système en intégrant un enregistrement complet et dynamique de la posture de sécurité et de sûreté d'un système d'IA. Le cadre propose un système standardisé d'identifiants, incluant un nouvel identifiant de danger pour la sécurité de l'IA (ASH ID), pour compléter les identifiants de sécurité existants tels que les CVE, permettant une communication claire et cohérente des failles corrigées. En fournissant une source unique et accessible de vérité, le HASC permet aux développeurs et aux parties prenantes de prendre des décisions plus éclairées concernant la sécurité des systèmes d'IA tout au long de leur cycle de vie. Enfin, nous comparons également nos fiches de système d'IA proposées avec la norme ISO/IEC 42001:2023 et discutons de la manière dont elles peuvent se compléter mutuellement, offrant ainsi une plus grande transparence et responsabilité pour les systèmes d'IA.
English
This paper introduces the Hazard-Aware System Card (HASC), a novel framework
designed to enhance transparency and accountability in the development and
deployment of AI systems. The HASC builds upon existing model card and system
card concepts by integrating a comprehensive, dynamic record of an AI system's
security and safety posture. The framework proposes a standardized system of
identifiers, including a novel AI Safety Hazard (ASH) ID, to complement
existing security identifiers like CVEs, allowing for clear and consistent
communication of fixed flaws. By providing a single, accessible source of
truth, the HASC empowers developers and stakeholders to make more informed
decisions about AI system safety throughout its lifecycle. Ultimately, we also
compare our proposed AI system cards with the ISO/IEC 42001:2023 standard and
discuss how they can be used to complement each other, providing greater
transparency and accountability for AI systems.