Modello Ibrido Quantistico-Classico per la Classificazione di Immagini
Hybrid Quantum-Classical Model for Image Classification
September 14, 2025
Autori: Muhammad Adnan Shahzad
cs.AI
Abstract
Questo studio presenta un confronto sistematico tra reti neurali ibride quantistiche-classiche e modelli puramente classici su tre dataset di riferimento (MNIST, CIFAR100 e STL10) per valutarne le prestazioni, l'efficienza e la robustezza. I modelli ibridi integrano circuiti quantistici parametrizzati con architetture di deep learning classiche, mentre le controparti classiche utilizzano reti neurali convoluzionali (CNN) convenzionali. Gli esperimenti sono stati condotti per 50 epoche di addestramento su ciascun dataset, con valutazioni sull'accuratezza di validazione, l'accuratezza di test, il tempo di addestramento, l'uso delle risorse computazionali e la robustezza agli attacchi avversari (testata con perturbazioni epsilon=0.1). I risultati chiave dimostrano che i modelli ibridi superano costantemente i modelli classici in termini di accuratezza finale, raggiungendo {99,38\% (MNIST), 41,69\% (CIFAR100) e 74,05\% (STL10) di accuratezza di validazione, rispetto ai benchmark classici di 98,21\%, 32,25\% e 63,76\%, rispettivamente. In particolare, il vantaggio ibrido scala con la complessità del dataset, mostrando i guadagni più significativi su CIFAR100 (+9,44\%) e STL10 (+10,29\%). I modelli ibridi si addestrano anche 5-12 volte più velocemente (ad esempio, 21,23s contro 108,44s per epoca su MNIST) e utilizzano il 6-32\% in meno di parametri, mantenendo una generalizzazione superiore ai dati di test non visti. I test di robustezza avversaria rivelano che i modelli ibridi sono significativamente più resilienti su dataset più semplici (ad esempio, 45,27\% di accuratezza robusta su MNIST contro il 10,80\% per i classici) ma mostrano una fragilità comparabile su dataset complessi come CIFAR100 (circa 1\% di robustezza per entrambi). Le analisi di efficienza delle risorse indicano che i modelli ibridi consumano meno memoria (4-5GB contro 5-6GB per i classici) e una minore utilizzazione della CPU (9,5\% contro 23,2\% in media). Questi risultati suggeriscono che le architetture ibride quantistiche-classiche offrono vantaggi convincenti in termini di accuratezza, efficienza di addestramento e scalabilità dei parametri, in particolare per compiti di visione complessi.
English
This study presents a systematic comparison between hybrid quantum-classical
neural networks and purely classical models across three benchmark datasets
(MNIST, CIFAR100, and STL10) to evaluate their performance, efficiency, and
robustness. The hybrid models integrate parameterized quantum circuits with
classical deep learning architectures, while the classical counterparts use
conventional convolutional neural networks (CNNs). Experiments were conducted
over 50 training epochs for each dataset, with evaluations on validation
accuracy, test accuracy, training time, computational resource usage, and
adversarial robustness (tested with epsilon=0.1 perturbations).Key findings
demonstrate that hybrid models consistently outperform classical models in
final accuracy, achieving {99.38\% (MNIST), 41.69\% (CIFAR100), and 74.05\%
(STL10) validation accuracy, compared to classical benchmarks of 98.21\%,
32.25\%, and 63.76\%, respectively. Notably, the hybrid advantage scales with
dataset complexity, showing the most significant gains on CIFAR100 (+9.44\%)
and STL10 (+10.29\%). Hybrid models also train 5--12times faster (e.g.,
21.23s vs. 108.44s per epoch on MNIST) and use 6--32\% fewer parameters} while
maintaining superior generalization to unseen test data.Adversarial robustness
tests reveal that hybrid models are significantly more resilient on simpler
datasets (e.g., 45.27\% robust accuracy on MNIST vs. 10.80\% for classical) but
show comparable fragility on complex datasets like CIFAR100 (sim1\%
robustness for both). Resource efficiency analyses indicate that hybrid models
consume less memory (4--5GB vs. 5--6GB for classical) and lower CPU utilization
(9.5\% vs. 23.2\% on average).These results suggest that hybrid
quantum-classical architectures offer compelling advantages in accuracy,
training efficiency, and parameter scalability, particularly for complex vision
tasks.