Гибридная квантово-классическая модель для классификации изображений
Hybrid Quantum-Classical Model for Image Classification
September 14, 2025
Авторы: Muhammad Adnan Shahzad
cs.AI
Аннотация
В данном исследовании проводится систематическое сравнение гибридных квантово-классических нейронных сетей с чисто классическими моделями на трех эталонных наборах данных (MNIST, CIFAR100 и STL10) для оценки их производительности, эффективности и устойчивости. Гибридные модели интегрируют параметризованные квантовые схемы с классическими архитектурами глубокого обучения, в то время как классические аналоги используют традиционные сверточные нейронные сети (CNN). Эксперименты проводились в течение 50 эпох обучения для каждого набора данных с оценкой точности на валидации, точности на тестовых данных, времени обучения, использования вычислительных ресурсов и устойчивости к атакам (тестировалось с возмущениями epsilon=0.1). Ключевые результаты показывают, что гибридные модели стабильно превосходят классические по итоговой точности, достигая {99,38\% (MNIST), 41,69\% (CIFAR100) и 74,05\% (STL10) точности на валидации, по сравнению с классическими показателями 98,21\%, 32,25\% и 63,76\% соответственно. Примечательно, что преимущество гибридных моделей возрастает с увеличением сложности данных, демонстрируя наиболее значительный прирост на CIFAR100 (+9,44\%) и STL10 (+10,29\%). Гибридные модели также обучаются в 5–12 раз быстрее (например, 21,23 с против 108,44 с на эпоху для MNIST) и используют на 6–32\% меньше параметров, сохраняя при этом превосходную обобщающую способность на новых тестовых данных. Тесты на устойчивость к атакам показывают, что гибридные модели значительно более устойчивы на более простых наборах данных (например, 45,27\% устойчивой точности на MNIST против 10,80\% для классических), но демонстрируют сопоставимую уязвимость на сложных наборах данных, таких как CIFAR100 (около 1\% устойчивости для обеих моделей). Анализ эффективности использования ресурсов указывает на то, что гибридные модели потребляют меньше памяти (4–5 ГБ против 5–6 ГБ для классических) и имеют более низкую загрузку процессора (9,5\% против 23,2\% в среднем). Эти результаты свидетельствуют о том, что гибридные квантово-классические архитектуры предлагают убедительные преимущества в точности, эффективности обучения и масштабируемости параметров, особенно для сложных задач компьютерного зрения.
English
This study presents a systematic comparison between hybrid quantum-classical
neural networks and purely classical models across three benchmark datasets
(MNIST, CIFAR100, and STL10) to evaluate their performance, efficiency, and
robustness. The hybrid models integrate parameterized quantum circuits with
classical deep learning architectures, while the classical counterparts use
conventional convolutional neural networks (CNNs). Experiments were conducted
over 50 training epochs for each dataset, with evaluations on validation
accuracy, test accuracy, training time, computational resource usage, and
adversarial robustness (tested with epsilon=0.1 perturbations).Key findings
demonstrate that hybrid models consistently outperform classical models in
final accuracy, achieving {99.38\% (MNIST), 41.69\% (CIFAR100), and 74.05\%
(STL10) validation accuracy, compared to classical benchmarks of 98.21\%,
32.25\%, and 63.76\%, respectively. Notably, the hybrid advantage scales with
dataset complexity, showing the most significant gains on CIFAR100 (+9.44\%)
and STL10 (+10.29\%). Hybrid models also train 5--12times faster (e.g.,
21.23s vs. 108.44s per epoch on MNIST) and use 6--32\% fewer parameters} while
maintaining superior generalization to unseen test data.Adversarial robustness
tests reveal that hybrid models are significantly more resilient on simpler
datasets (e.g., 45.27\% robust accuracy on MNIST vs. 10.80\% for classical) but
show comparable fragility on complex datasets like CIFAR100 (sim1\%
robustness for both). Resource efficiency analyses indicate that hybrid models
consume less memory (4--5GB vs. 5--6GB for classical) and lower CPU utilization
(9.5\% vs. 23.2\% on average).These results suggest that hybrid
quantum-classical architectures offer compelling advantages in accuracy,
training efficiency, and parameter scalability, particularly for complex vision
tasks.