ChatPaper.aiChatPaper

QuXAI: Strumenti di interpretazione per modelli ibridi di machine learning quantistico

QuXAI: Explainers for Hybrid Quantum Machine Learning Models

May 15, 2025
Autori: Saikat Barua, Mostafizur Rahman, Shehenaz Khaled, Md Jafor Sadek, Rafiul Islam, Shahnewaz Siddique
cs.AI

Abstract

L'emergenza di modelli ibridi di apprendimento automatico quantistico-classico (HQML) apre nuovi orizzonti nell'intelligenza computazionale, ma la loro complessità fondamentale spesso porta a comportamenti di tipo "scatola nera" che minano la trasparenza e l'affidabilità nella loro applicazione. Sebbene l'XAI (Explainable AI) per i sistemi quantistici sia ancora nella sua fase iniziale, è evidente un'importante lacuna di ricerca negli approcci robusti di spiegabilità globale e locale progettati per architetture HQML che impiegano la codifica quantizzata delle feature seguita da apprendimento classico. Questa lacuna è il fulcro di questo lavoro, che introduce QuXAI, un framework basato su Q-MEDLEY, un sistema di spiegazione per l'importanza delle feature in questi sistemi ibridi. Il nostro modello prevede la creazione di modelli HQML che incorporano mappe di feature quantistiche, l'uso di Q-MEDLEY, che combina inferenze basate sulle feature, preservando la fase di trasformazione quantistica e visualizzando le attribuzioni risultanti. I nostri risultati dimostrano che Q-MEDLEY delinea gli aspetti classici influenti nei modelli HQML, separa il loro rumore e compete efficacemente con le tecniche XAI consolidate in contesti di validazione classica. Gli studi di ablazione evidenziano in modo significativo i vantaggi della struttura composita utilizzata in Q-MEDLEY. Le implicazioni di questo lavoro sono di fondamentale importanza, poiché fornisce una strada per migliorare l'interpretabilità e l'affidabilità dei modelli HQML, promuovendo così una maggiore fiducia e consentendo un uso più sicuro e responsabile della tecnologia AI potenziata dalla quantistica.
English
The emergence of hybrid quantum-classical machine learning (HQML) models opens new horizons of computational intelligence but their fundamental complexity frequently leads to black box behavior that undermines transparency and reliability in their application. Although XAI for quantum systems still in its infancy, a major research gap is evident in robust global and local explainability approaches that are designed for HQML architectures that employ quantized feature encoding followed by classical learning. The gap is the focus of this work, which introduces QuXAI, an framework based upon Q-MEDLEY, an explainer for explaining feature importance in these hybrid systems. Our model entails the creation of HQML models incorporating quantum feature maps, the use of Q-MEDLEY, which combines feature based inferences, preserving the quantum transformation stage and visualizing the resulting attributions. Our result shows that Q-MEDLEY delineates influential classical aspects in HQML models, as well as separates their noise, and competes well against established XAI techniques in classical validation settings. Ablation studies more significantly expose the virtues of the composite structure used in Q-MEDLEY. The implications of this work are critically important, as it provides a route to improve the interpretability and reliability of HQML models, thus promoting greater confidence and being able to engage in safer and more responsible use of quantum-enhanced AI technology.
PDF73May 16, 2025