Hybrides Quanten-Klassisches Modell für Bildklassifizierung
Hybrid Quantum-Classical Model for Image Classification
September 14, 2025
papers.authors: Muhammad Adnan Shahzad
cs.AI
papers.abstract
Diese Studie präsentiert einen systematischen Vergleich zwischen hybriden quantenklassischen neuronalen Netzwerken und rein klassischen Modellen anhand von drei Benchmark-Datensätzen (MNIST, CIFAR100 und STL10), um deren Leistung, Effizienz und Robustheit zu bewerten. Die hybriden Modelle integrieren parametrisierte Quantenschaltkreise in klassische Deep-Learning-Architekturen, während die klassischen Gegenstücke konventionelle Convolutional Neural Networks (CNNs) verwenden. Die Experimente wurden über 50 Trainings-Epochen für jeden Datensatz durchgeführt, wobei die Bewertung auf der Validierungsgenauigkeit, Testgenauigkeit, Trainingszeit, Nutzung von Rechenressourcen und adversarischen Robustheit (getestet mit Störungen von epsilon=0,1) basierte.
Die zentralen Ergebnisse zeigen, dass hybride Modelle in der finalen Genauigkeit durchweg besser abschneiden als klassische Modelle, mit Validierungsgenauigkeiten von {99,38\% (MNIST), 41,69\% (CIFAR100) und 74,05\% (STL10) im Vergleich zu den klassischen Benchmarks von 98,21\%, 32,25\% bzw. 63,76\%. Besonders bemerkenswert ist, dass der Vorteil der hybriden Modelle mit der Komplexität des Datensatzes skaliert, wobei die signifikantesten Verbesserungen bei CIFAR100 (+9,44\%) und STL10 (+10,29\%) zu verzeichnen sind. Hybride Modelle trainieren zudem 5–12-mal schneller (z. B. 21,23 s vs. 108,44 s pro Epoche bei MNIST) und verwenden 6–32\% weniger Parameter, während sie eine überlegene Generalisierung auf unbekannte Testdaten beibehalten.
Tests zur adversarischen Robustheit zeigen, dass hybride Modelle auf einfacheren Datensätzen deutlich widerstandsfähiger sind (z. B. 45,27\% robuste Genauigkeit auf MNIST vs. 10,80\% für klassische Modelle), jedoch auf komplexen Datensätzen wie CIFAR100 eine vergleichbare Anfälligkeit aufweisen (ca. 1\% Robustheit bei beiden). Analysen der Ressourceneffizienz zeigen, dass hybride Modelle weniger Speicher verbrauchen (4–5 GB vs. 5–6 GB für klassische Modelle) und eine geringere CPU-Auslastung aufweisen (9,5\% vs. 23,2\% im Durchschnitt).
Diese Ergebnisse legen nahe, dass hybride quantenklassische Architekturen überzeugende Vorteile in Bezug auf Genauigkeit, Trainings effizienz und Parameter-Skalierbarkeit bieten, insbesondere für komplexe Bildverarbeitungsaufgaben.
English
This study presents a systematic comparison between hybrid quantum-classical
neural networks and purely classical models across three benchmark datasets
(MNIST, CIFAR100, and STL10) to evaluate their performance, efficiency, and
robustness. The hybrid models integrate parameterized quantum circuits with
classical deep learning architectures, while the classical counterparts use
conventional convolutional neural networks (CNNs). Experiments were conducted
over 50 training epochs for each dataset, with evaluations on validation
accuracy, test accuracy, training time, computational resource usage, and
adversarial robustness (tested with epsilon=0.1 perturbations).Key findings
demonstrate that hybrid models consistently outperform classical models in
final accuracy, achieving {99.38\% (MNIST), 41.69\% (CIFAR100), and 74.05\%
(STL10) validation accuracy, compared to classical benchmarks of 98.21\%,
32.25\%, and 63.76\%, respectively. Notably, the hybrid advantage scales with
dataset complexity, showing the most significant gains on CIFAR100 (+9.44\%)
and STL10 (+10.29\%). Hybrid models also train 5--12times faster (e.g.,
21.23s vs. 108.44s per epoch on MNIST) and use 6--32\% fewer parameters} while
maintaining superior generalization to unseen test data.Adversarial robustness
tests reveal that hybrid models are significantly more resilient on simpler
datasets (e.g., 45.27\% robust accuracy on MNIST vs. 10.80\% for classical) but
show comparable fragility on complex datasets like CIFAR100 (sim1\%
robustness for both). Resource efficiency analyses indicate that hybrid models
consume less memory (4--5GB vs. 5--6GB for classical) and lower CPU utilization
(9.5\% vs. 23.2\% on average).These results suggest that hybrid
quantum-classical architectures offer compelling advantages in accuracy,
training efficiency, and parameter scalability, particularly for complex vision
tasks.