Modelo Híbrido Cuántico-Clásico para Clasificación de Imágenes
Hybrid Quantum-Classical Model for Image Classification
September 14, 2025
Autores: Muhammad Adnan Shahzad
cs.AI
Resumen
Este estudio presenta una comparación sistemática entre redes neuronales híbridas cuántico-clásicas y modelos puramente clásicos en tres conjuntos de datos de referencia (MNIST, CIFAR100 y STL10) para evaluar su rendimiento, eficiencia y robustez. Los modelos híbridos integran circuitos cuánticos parametrizados con arquitecturas clásicas de aprendizaje profundo, mientras que los modelos clásicos utilizan redes neuronales convolucionales (CNN) convencionales. Los experimentos se realizaron durante 50 épocas de entrenamiento para cada conjunto de datos, evaluando la precisión en validación, la precisión en prueba, el tiempo de entrenamiento, el uso de recursos computacionales y la robustez ante adversarios (probada con perturbaciones de épsilon=0.1). Los hallazgos clave demuestran que los modelos híbridos superan consistentemente a los modelos clásicos en precisión final, alcanzando {99.38\% (MNIST), 41.69\% (CIFAR100) y 74.05\% (STL10) en precisión de validación, en comparación con los valores de referencia clásicos de 98.21\%, 32.25\% y 63.76\%, respectivamente. Notablemente, la ventaja de los modelos híbridos escala con la complejidad del conjunto de datos, mostrando las ganancias más significativas en CIFAR100 (+9.44\%) y STL10 (+10.29\%). Los modelos híbridos también entrenan entre 5 y 12 veces más rápido (por ejemplo, 21.23s vs. 108.44s por época en MNIST) y utilizan entre un 6\% y un 32\% menos de parámetros} mientras mantienen una generalización superior a datos de prueba no vistos. Las pruebas de robustez ante adversarios revelan que los modelos híbridos son significativamente más resistentes en conjuntos de datos más simples (por ejemplo, 45.27\% de precisión robusta en MNIST frente a 10.80\% para los clásicos), pero muestran una fragilidad comparable en conjuntos de datos complejos como CIFAR100 (sim1\% de robustez para ambos). Los análisis de eficiencia de recursos indican que los modelos híbridos consumen menos memoria (4--5GB frente a 5--6GB para los clásicos) y una menor utilización de CPU (9.5\% frente a 23.2\% en promedio). Estos resultados sugieren que las arquitecturas híbridas cuántico-clásicas ofrecen ventajas convincentes en precisión, eficiencia de entrenamiento y escalabilidad de parámetros, particularmente para tareas de visión complejas.
English
This study presents a systematic comparison between hybrid quantum-classical
neural networks and purely classical models across three benchmark datasets
(MNIST, CIFAR100, and STL10) to evaluate their performance, efficiency, and
robustness. The hybrid models integrate parameterized quantum circuits with
classical deep learning architectures, while the classical counterparts use
conventional convolutional neural networks (CNNs). Experiments were conducted
over 50 training epochs for each dataset, with evaluations on validation
accuracy, test accuracy, training time, computational resource usage, and
adversarial robustness (tested with epsilon=0.1 perturbations).Key findings
demonstrate that hybrid models consistently outperform classical models in
final accuracy, achieving {99.38\% (MNIST), 41.69\% (CIFAR100), and 74.05\%
(STL10) validation accuracy, compared to classical benchmarks of 98.21\%,
32.25\%, and 63.76\%, respectively. Notably, the hybrid advantage scales with
dataset complexity, showing the most significant gains on CIFAR100 (+9.44\%)
and STL10 (+10.29\%). Hybrid models also train 5--12times faster (e.g.,
21.23s vs. 108.44s per epoch on MNIST) and use 6--32\% fewer parameters} while
maintaining superior generalization to unseen test data.Adversarial robustness
tests reveal that hybrid models are significantly more resilient on simpler
datasets (e.g., 45.27\% robust accuracy on MNIST vs. 10.80\% for classical) but
show comparable fragility on complex datasets like CIFAR100 (sim1\%
robustness for both). Resource efficiency analyses indicate that hybrid models
consume less memory (4--5GB vs. 5--6GB for classical) and lower CPU utilization
(9.5\% vs. 23.2\% on average).These results suggest that hybrid
quantum-classical architectures offer compelling advantages in accuracy,
training efficiency, and parameter scalability, particularly for complex vision
tasks.