Modelo Híbrido Quântico-Clássico para Classificação de Imagens
Hybrid Quantum-Classical Model for Image Classification
September 14, 2025
Autores: Muhammad Adnan Shahzad
cs.AI
Resumo
Este estudo apresenta uma comparação sistemática entre redes neurais híbridas quântico-clássicas e modelos puramente clássicos em três conjuntos de dados de referência (MNIST, CIFAR100 e STL10) para avaliar seu desempenho, eficiência e robustez. Os modelos híbridos integram circuitos quânticos parametrizados com arquiteturas clássicas de aprendizado profundo, enquanto os modelos clássicos utilizam redes neurais convolucionais (CNNs) convencionais. Os experimentos foram conduzidos ao longo de 50 épocas de treinamento para cada conjunto de dados, com avaliações de precisão na validação, precisão no teste, tempo de treinamento, uso de recursos computacionais e robustez adversarial (testada com perturbações de epsilon=0.1). Os principais resultados demonstram que os modelos híbridos superam consistentemente os modelos clássicos em precisão final, alcançando {99,38\% (MNIST), 41,69\% (CIFAR100) e 74,05\% (STL10) de precisão na validação, em comparação com os benchmarks clássicos de 98,21\%, 32,25\% e 63,76\%, respectivamente. Notavelmente, a vantagem híbrida escala com a complexidade do conjunto de dados, mostrando os ganhos mais significativos no CIFAR100 (+9,44\%) e no STL10 (+10,29\%). Os modelos híbridos também treinam de 5 a 12 vezes mais rápido (por exemplo, 21,23s vs. 108,44s por época no MNIST) e usam de 6 a 32\% menos parâmetros} enquanto mantêm uma generalização superior para dados de teste não vistos. Testes de robustez adversarial revelam que os modelos híbridos são significativamente mais resilientes em conjuntos de dados mais simples (por exemplo, 45,27\% de precisão robusta no MNIST vs. 10,80\% para o clássico), mas mostram fragilidade comparável em conjuntos de dados complexos como o CIFAR100 (aproximadamente 1\% de robustez para ambos). Análises de eficiência de recursos indicam que os modelos híbridos consomem menos memória (4--5GB vs. 5--6GB para os clássicos) e têm menor utilização de CPU (9,5\% vs. 23,2\% em média). Esses resultados sugerem que as arquiteturas híbridas quântico-clássicas oferecem vantagens convincentes em precisão, eficiência de treinamento e escalabilidade de parâmetros, particularmente para tarefas visuais complexas.
English
This study presents a systematic comparison between hybrid quantum-classical
neural networks and purely classical models across three benchmark datasets
(MNIST, CIFAR100, and STL10) to evaluate their performance, efficiency, and
robustness. The hybrid models integrate parameterized quantum circuits with
classical deep learning architectures, while the classical counterparts use
conventional convolutional neural networks (CNNs). Experiments were conducted
over 50 training epochs for each dataset, with evaluations on validation
accuracy, test accuracy, training time, computational resource usage, and
adversarial robustness (tested with epsilon=0.1 perturbations).Key findings
demonstrate that hybrid models consistently outperform classical models in
final accuracy, achieving {99.38\% (MNIST), 41.69\% (CIFAR100), and 74.05\%
(STL10) validation accuracy, compared to classical benchmarks of 98.21\%,
32.25\%, and 63.76\%, respectively. Notably, the hybrid advantage scales with
dataset complexity, showing the most significant gains on CIFAR100 (+9.44\%)
and STL10 (+10.29\%). Hybrid models also train 5--12times faster (e.g.,
21.23s vs. 108.44s per epoch on MNIST) and use 6--32\% fewer parameters} while
maintaining superior generalization to unseen test data.Adversarial robustness
tests reveal that hybrid models are significantly more resilient on simpler
datasets (e.g., 45.27\% robust accuracy on MNIST vs. 10.80\% for classical) but
show comparable fragility on complex datasets like CIFAR100 (sim1\%
robustness for both). Resource efficiency analyses indicate that hybrid models
consume less memory (4--5GB vs. 5--6GB for classical) and lower CPU utilization
(9.5\% vs. 23.2\% on average).These results suggest that hybrid
quantum-classical architectures offer compelling advantages in accuracy,
training efficiency, and parameter scalability, particularly for complex vision
tasks.