Hybride Kwantum-Klassiek Model voor Beeldclassificatie
Hybrid Quantum-Classical Model for Image Classification
September 14, 2025
Auteurs: Muhammad Adnan Shahzad
cs.AI
Samenvatting
Dit onderzoek presenteert een systematische vergelijking tussen hybride quantum-klassieke neurale netwerken en puur klassieke modellen over drie benchmarkdatasets (MNIST, CIFAR100 en STL10) om hun prestaties, efficiëntie en robuustheid te evalueren. De hybride modellen integreren geparametriseerde quantumcircuits met klassieke deep learning-architecturen, terwijl de klassieke tegenhangers conventionele convolutionele neurale netwerken (CNN's) gebruiken. Experimenten werden uitgevoerd over 50 trainingsepochs voor elke dataset, met evaluaties op validatienauwkeurigheid, testnauwkeurigheid, trainingstijd, gebruik van rekenbronnen en robuustheid tegen adversarial attacks (getest met epsilon=0.1 verstoringen). Belangrijke bevindingen tonen aan dat hybride modellen consistent beter presteren dan klassieke modellen in uiteindelijke nauwkeurigheid, met {99,38\% (MNIST), 41,69\% (CIFAR100) en 74,05\% (STL10) validatienauwkeurigheid, vergeleken met klassieke benchmarks van respectievelijk 98,21\%, 32,25\% en 63,76\%. Opmerkelijk is dat het hybride voordeel schaalt met de complexiteit van de dataset, met de meest significante winsten op CIFAR100 (+9,44\%) en STL10 (+10,29\%). Hybride modellen trainen ook 5–12 keer sneller (bijv. 21,23s vs. 108,44s per epoch op MNIST) en gebruiken 6–32\% minder parameters, terwijl ze superieure generalisatie naar onbekende testdata behouden. Robuustheidstests tegen adversarial attacks laten zien dat hybride modellen aanzienlijk veerkrachtiger zijn op eenvoudigere datasets (bijv. 45,27\% robuuste nauwkeurigheid op MNIST vs. 10,80\% voor klassieke modellen), maar vergelijkbare kwetsbaarheid vertonen op complexe datasets zoals CIFAR100 (ongeveer 1\% robuustheid voor beide). Analyse van resource-efficiëntie geeft aan dat hybride modellen minder geheugen verbruiken (4–5GB vs. 5–6GB voor klassieke modellen) en een lagere CPU-belasting hebben (9,5\% vs. 23,2\% gemiddeld). Deze resultaten suggereren dat hybride quantum-klassieke architecturen overtuigende voordelen bieden in nauwkeurigheid, trainings efficiëntie en parameterschaalbaarheid, met name voor complexe visietaken.
English
This study presents a systematic comparison between hybrid quantum-classical
neural networks and purely classical models across three benchmark datasets
(MNIST, CIFAR100, and STL10) to evaluate their performance, efficiency, and
robustness. The hybrid models integrate parameterized quantum circuits with
classical deep learning architectures, while the classical counterparts use
conventional convolutional neural networks (CNNs). Experiments were conducted
over 50 training epochs for each dataset, with evaluations on validation
accuracy, test accuracy, training time, computational resource usage, and
adversarial robustness (tested with epsilon=0.1 perturbations).Key findings
demonstrate that hybrid models consistently outperform classical models in
final accuracy, achieving {99.38\% (MNIST), 41.69\% (CIFAR100), and 74.05\%
(STL10) validation accuracy, compared to classical benchmarks of 98.21\%,
32.25\%, and 63.76\%, respectively. Notably, the hybrid advantage scales with
dataset complexity, showing the most significant gains on CIFAR100 (+9.44\%)
and STL10 (+10.29\%). Hybrid models also train 5--12times faster (e.g.,
21.23s vs. 108.44s per epoch on MNIST) and use 6--32\% fewer parameters} while
maintaining superior generalization to unseen test data.Adversarial robustness
tests reveal that hybrid models are significantly more resilient on simpler
datasets (e.g., 45.27\% robust accuracy on MNIST vs. 10.80\% for classical) but
show comparable fragility on complex datasets like CIFAR100 (sim1\%
robustness for both). Resource efficiency analyses indicate that hybrid models
consume less memory (4--5GB vs. 5--6GB for classical) and lower CPU utilization
(9.5\% vs. 23.2\% on average).These results suggest that hybrid
quantum-classical architectures offer compelling advantages in accuracy,
training efficiency, and parameter scalability, particularly for complex vision
tasks.