이미지 분류를 위한 하이브리드 양자-클래식 모델
Hybrid Quantum-Classical Model for Image Classification
September 14, 2025
저자: Muhammad Adnan Shahzad
cs.AI
초록
본 연구는 하이브리드 양자-클래식 신경망과 순수 클래식 모델 간의 성능, 효율성 및 견고성을 평가하기 위해 세 가지 벤치마크 데이터셋(MNIST, CIFAR100, STL10)에 대한 체계적인 비교를 제시합니다. 하이브리드 모델은 매개변수화된 양자 회로를 클래식 딥러닝 아키텍처와 통합한 반면, 클래식 모델은 전통적인 합성곱 신경망(CNN)을 사용합니다. 각 데이터셋에 대해 50회의 학습 에포크 동안 실험을 진행하였으며, 검증 정확도, 테스트 정확도, 학습 시간, 계산 자원 사용량 및 적대적 견고성(epsilon=0.1의 섭동으로 테스트)을 평가했습니다. 주요 결과는 하이브리드 모델이 최종 정확도에서 클래식 모델을 지속적으로 능가하며, 각각 {99.38%(MNIST), 41.69%(CIFAR100), 74.05%(STL10)}의 검증 정확도를 달성한 반면, 클래식 모델은 98.21%, 32.25%, 63.76%의 정확도를 보였습니다. 특히, 하이브리드 모델의 이점은 데이터셋의 복잡성에 따라 증가하며, CIFAR100(+9.44%)과 STL10(+10.29%)에서 가장 큰 성능 향상을 보였습니다. 또한, 하이브리드 모델은 학습 속도가 5~12배 빠르고(예: MNIST에서 에포크당 21.23초 대 108.44초), 파라미터 수가 6~32% 적으면서도 테스트 데이터에 대한 우수한 일반화 능력을 유지했습니다. 적대적 견고성 테스트 결과, 하이브리드 모델은 단순한 데이터셋에서 훨씬 더 견고한 성능을 보였으나(예: MNIST에서 45.27% 대 클래식 10.80%), CIFAR100과 같은 복잡한 데이터셋에서는 유사한 취약성을 나타냈습니다(양쪽 모두 약 1% 견고성). 자원 효율성 분석 결과, 하이브리드 모델은 메모리 사용량(4~5GB 대 클래식 5~6GB)과 CPU 사용률(평균 9.5% 대 23.2%)이 더 낮았습니다. 이러한 결과는 하이브리드 양자-클래식 아키텍처가 특히 복잡한 비전 작업에서 정확도, 학습 효율성 및 파라미터 확장성 측면에서 강력한 이점을 제공함을 시사합니다.
English
This study presents a systematic comparison between hybrid quantum-classical
neural networks and purely classical models across three benchmark datasets
(MNIST, CIFAR100, and STL10) to evaluate their performance, efficiency, and
robustness. The hybrid models integrate parameterized quantum circuits with
classical deep learning architectures, while the classical counterparts use
conventional convolutional neural networks (CNNs). Experiments were conducted
over 50 training epochs for each dataset, with evaluations on validation
accuracy, test accuracy, training time, computational resource usage, and
adversarial robustness (tested with epsilon=0.1 perturbations).Key findings
demonstrate that hybrid models consistently outperform classical models in
final accuracy, achieving {99.38\% (MNIST), 41.69\% (CIFAR100), and 74.05\%
(STL10) validation accuracy, compared to classical benchmarks of 98.21\%,
32.25\%, and 63.76\%, respectively. Notably, the hybrid advantage scales with
dataset complexity, showing the most significant gains on CIFAR100 (+9.44\%)
and STL10 (+10.29\%). Hybrid models also train 5--12times faster (e.g.,
21.23s vs. 108.44s per epoch on MNIST) and use 6--32\% fewer parameters} while
maintaining superior generalization to unseen test data.Adversarial robustness
tests reveal that hybrid models are significantly more resilient on simpler
datasets (e.g., 45.27\% robust accuracy on MNIST vs. 10.80\% for classical) but
show comparable fragility on complex datasets like CIFAR100 (sim1\%
robustness for both). Resource efficiency analyses indicate that hybrid models
consume less memory (4--5GB vs. 5--6GB for classical) and lower CPU utilization
(9.5\% vs. 23.2\% on average).These results suggest that hybrid
quantum-classical architectures offer compelling advantages in accuracy,
training efficiency, and parameter scalability, particularly for complex vision
tasks.