ChatPaper.aiChatPaper

Modèle Hybride Quantique-Classique pour la Classification d'Images

Hybrid Quantum-Classical Model for Image Classification

September 14, 2025
papers.authors: Muhammad Adnan Shahzad
cs.AI

papers.abstract

Cette étude présente une comparaison systématique entre les réseaux de neurones hybrides quantiques-classiques et les modèles purement classiques sur trois ensembles de données de référence (MNIST, CIFAR100 et STL10) pour évaluer leurs performances, leur efficacité et leur robustesse. Les modèles hybrides intègrent des circuits quantiques paramétrés avec des architectures d'apprentissage profond classiques, tandis que les modèles classiques utilisent des réseaux de neurones convolutifs (CNN) conventionnels. Les expériences ont été menées sur 50 époques d'entraînement pour chaque ensemble de données, avec des évaluations portant sur la précision de validation, la précision de test, le temps d'entraînement, l'utilisation des ressources computationnelles et la robustesse aux attaques adverses (testée avec des perturbations epsilon=0.1). Les principaux résultats montrent que les modèles hybrides surpassent systématiquement les modèles classiques en précision finale, atteignant {99,38\% (MNIST), 41,69\% (CIFAR100) et 74,05\% (STL10) en précision de validation, contre des références classiques de 98,21\%, 32,25\% et 63,76\%, respectivement. Notamment, l'avantage des modèles hybrides s'accroît avec la complexité des données, montrant les gains les plus significatifs sur CIFAR100 (+9,44\%) et STL10 (+10,29\%). Les modèles hybrides s'entraînent également 5 à 12 fois plus vite (par exemple, 21,23s contre 108,44s par époque sur MNIST) et utilisent 6 à 32\% de paramètres en moins, tout en maintenant une généralisation supérieure aux données de test non vues. Les tests de robustesse adversaire révèlent que les modèles hybrides sont significativement plus résilients sur des ensembles de données plus simples (par exemple, 45,27\% de précision robuste sur MNIST contre 10,80\% pour les classiques) mais montrent une fragilité comparable sur des ensembles de données complexes comme CIFAR100 (environ 1\% de robustesse pour les deux). Les analyses d'efficacité des ressources indiquent que les modèles hybrides consomment moins de mémoire (4-5 Go contre 5-6 Go pour les classiques) et une utilisation CPU plus faible (9,5\% contre 23,2\% en moyenne). Ces résultats suggèrent que les architectures hybrides quantiques-classiques offrent des avantages convaincants en termes de précision, d'efficacité d'entraînement et de scalabilité des paramètres, en particulier pour les tâches de vision complexes.
English
This study presents a systematic comparison between hybrid quantum-classical neural networks and purely classical models across three benchmark datasets (MNIST, CIFAR100, and STL10) to evaluate their performance, efficiency, and robustness. The hybrid models integrate parameterized quantum circuits with classical deep learning architectures, while the classical counterparts use conventional convolutional neural networks (CNNs). Experiments were conducted over 50 training epochs for each dataset, with evaluations on validation accuracy, test accuracy, training time, computational resource usage, and adversarial robustness (tested with epsilon=0.1 perturbations).Key findings demonstrate that hybrid models consistently outperform classical models in final accuracy, achieving {99.38\% (MNIST), 41.69\% (CIFAR100), and 74.05\% (STL10) validation accuracy, compared to classical benchmarks of 98.21\%, 32.25\%, and 63.76\%, respectively. Notably, the hybrid advantage scales with dataset complexity, showing the most significant gains on CIFAR100 (+9.44\%) and STL10 (+10.29\%). Hybrid models also train 5--12times faster (e.g., 21.23s vs. 108.44s per epoch on MNIST) and use 6--32\% fewer parameters} while maintaining superior generalization to unseen test data.Adversarial robustness tests reveal that hybrid models are significantly more resilient on simpler datasets (e.g., 45.27\% robust accuracy on MNIST vs. 10.80\% for classical) but show comparable fragility on complex datasets like CIFAR100 (sim1\% robustness for both). Resource efficiency analyses indicate that hybrid models consume less memory (4--5GB vs. 5--6GB for classical) and lower CPU utilization (9.5\% vs. 23.2\% on average).These results suggest that hybrid quantum-classical architectures offer compelling advantages in accuracy, training efficiency, and parameter scalability, particularly for complex vision tasks.
PDF01September 18, 2025