ハイブリッド量子古典モデルによる画像分類
Hybrid Quantum-Classical Model for Image Classification
September 14, 2025
著者: Muhammad Adnan Shahzad
cs.AI
要旨
本研究では、ハイブリッド量子-古典ニューラルネットワークと純粋な古典モデルの性能、効率性、および堅牢性を評価するため、3つのベンチマークデータセット(MNIST、CIFAR100、STL10)における体系的な比較を行った。ハイブリッドモデルは、パラメータ化された量子回路を古典的な深層学習アーキテクチャと統合し、古典モデルは従来の畳み込みニューラルネットワーク(CNN)を使用した。各データセットに対して50エポックの訓練を行い、検証精度、テスト精度、訓練時間、計算リソース使用量、および敵対的堅牢性(ε=0.1の摂動でテスト)を評価した。主要な結果として、ハイブリッドモデルは最終精度において古典モデルを一貫して上回り、検証精度はそれぞれMNISTで99.38%、CIFAR100で41.69%、STL10で74.05%を達成した(古典モデルのベンチマークはそれぞれ98.21%、32.25%、63.76%)。特に、ハイブリッドモデルの優位性はデータセットの複雑さに比例し、CIFAR100(+9.44%)およびSTL10(+10.29%)で最も顕著な向上を示した。また、ハイブリッドモデルは訓練速度が5~12倍速く(例:MNISTで1エポックあたり21.23秒 vs 108.44秒)、パラメータ数も6~32%少ない一方で、未見のテストデータに対する優れた汎化性能を維持した。敵対的堅牢性テストでは、ハイブリッドモデルは単純なデータセット(例:MNISTで45.27%の堅牢精度 vs 古典モデルの10.80%)において顕著に堅牢性が高いが、CIFAR100のような複雑なデータセットでは両モデルとも同程度の脆弱性を示した(堅牢性は約1%)。リソース効率分析では、ハイブリッドモデルはメモリ使用量(4~5GB vs 古典モデルの5~6GB)およびCPU使用率(平均9.5% vs 23.2%)が低いことが示された。これらの結果から、ハイブリッド量子-古典アーキテクチャは、特に複雑な視覚タスクにおいて、精度、訓練効率、およびパラメータのスケーラビリティにおいて魅力的な利点を提供することが示唆される。
English
This study presents a systematic comparison between hybrid quantum-classical
neural networks and purely classical models across three benchmark datasets
(MNIST, CIFAR100, and STL10) to evaluate their performance, efficiency, and
robustness. The hybrid models integrate parameterized quantum circuits with
classical deep learning architectures, while the classical counterparts use
conventional convolutional neural networks (CNNs). Experiments were conducted
over 50 training epochs for each dataset, with evaluations on validation
accuracy, test accuracy, training time, computational resource usage, and
adversarial robustness (tested with epsilon=0.1 perturbations).Key findings
demonstrate that hybrid models consistently outperform classical models in
final accuracy, achieving {99.38\% (MNIST), 41.69\% (CIFAR100), and 74.05\%
(STL10) validation accuracy, compared to classical benchmarks of 98.21\%,
32.25\%, and 63.76\%, respectively. Notably, the hybrid advantage scales with
dataset complexity, showing the most significant gains on CIFAR100 (+9.44\%)
and STL10 (+10.29\%). Hybrid models also train 5--12times faster (e.g.,
21.23s vs. 108.44s per epoch on MNIST) and use 6--32\% fewer parameters} while
maintaining superior generalization to unseen test data.Adversarial robustness
tests reveal that hybrid models are significantly more resilient on simpler
datasets (e.g., 45.27\% robust accuracy on MNIST vs. 10.80\% for classical) but
show comparable fragility on complex datasets like CIFAR100 (sim1\%
robustness for both). Resource efficiency analyses indicate that hybrid models
consume less memory (4--5GB vs. 5--6GB for classical) and lower CPU utilization
(9.5\% vs. 23.2\% on average).These results suggest that hybrid
quantum-classical architectures offer compelling advantages in accuracy,
training efficiency, and parameter scalability, particularly for complex vision
tasks.