Planos de Confianza: Tarjetas de Sistemas de IA para Transparencia y Gobernanza de Extremo a Extremo
Blueprints of Trust: AI System Cards for End to End Transparency and Governance
September 23, 2025
Autores: Huzaifa Sidhpurwala, Emily Fox, Garth Mollett, Florencio Cano Gabarda, Roman Zhukov
cs.AI
Resumen
Este artículo presenta la Tarjeta del Sistema Consciente de Riesgos (HASC, por sus siglas en inglés), un marco novedoso diseñado para mejorar la transparencia y la responsabilidad en el desarrollo y despliegue de sistemas de inteligencia artificial (IA). El HASC se basa en los conceptos existentes de tarjetas de modelos y tarjetas de sistemas, integrando un registro completo y dinámico del estado de seguridad y protección de un sistema de IA. El marco propone un sistema estandarizado de identificadores, incluyendo un nuevo Identificador de Riesgos de Seguridad en IA (ASH ID), para complementar identificadores de seguridad existentes como los CVEs, permitiendo una comunicación clara y consistente de fallos corregidos. Al proporcionar una única fuente de información accesible, el HASC capacita a los desarrolladores y partes interesadas para tomar decisiones más informadas sobre la seguridad de los sistemas de IA a lo largo de su ciclo de vida. Finalmente, también comparamos nuestras tarjetas de sistemas de IA propuestas con la norma ISO/IEC 42001:2023 y discutimos cómo pueden complementarse mutuamente, ofreciendo una mayor transparencia y responsabilidad en los sistemas de IA.
English
This paper introduces the Hazard-Aware System Card (HASC), a novel framework
designed to enhance transparency and accountability in the development and
deployment of AI systems. The HASC builds upon existing model card and system
card concepts by integrating a comprehensive, dynamic record of an AI system's
security and safety posture. The framework proposes a standardized system of
identifiers, including a novel AI Safety Hazard (ASH) ID, to complement
existing security identifiers like CVEs, allowing for clear and consistent
communication of fixed flaws. By providing a single, accessible source of
truth, the HASC empowers developers and stakeholders to make more informed
decisions about AI system safety throughout its lifecycle. Ultimately, we also
compare our proposed AI system cards with the ISO/IEC 42001:2023 standard and
discuss how they can be used to complement each other, providing greater
transparency and accountability for AI systems.