ChatPaper.aiChatPaper

Einbettungsbewusste Quanten-Klassische SVMs für skalierbares Quantenmaschinenlernen

Embedding-Aware Quantum-Classical SVMs for Scalable Quantum Machine Learning

July 28, 2025
papers.authors: Sebastián Andrés Cajas Ordóñez, Luis Fernando Torres Torres, Mario Bifulco, Carlos Andrés Durán, Cristian Bosch, Ricardo Simón Carbajo
cs.AI

papers.abstract

Quantum Support Vector Machines stehen vor Skalierbarkeitsherausforderungen aufgrund hochdimensionaler Quantenzustände und Hardwarebeschränkungen. Wir schlagen eine einbettungsbewusste Quanten-Klassisch-Pipeline vor, die klassengleiche k-means-Destillation mit vortrainierten Vision-Transformer-Einbettungen kombiniert. Unsere zentrale Erkenntnis: ViT-Einbettungen ermöglichen einzigartig einen Quantenvorteil, mit Genauigkeitssteigerungen von bis zu 8,02 % gegenüber klassischen SVMs auf Fashion-MNIST und 4,42 % auf MNIST, während CNN-Merkmale eine Leistungsverschlechterung zeigen. Unter Verwendung einer 16-Qubit-Tensornetzwerk-Simulation via cuTensorNet liefern wir den ersten systematischen Nachweis, dass der Quantenkernelvorteil entscheidend von der Wahl der Einbettung abhängt, was eine grundlegende Synergie zwischen Transformer-Aufmerksamkeit und Quantenmerkmalräumen offenbart. Dies bietet einen praktischen Weg für skalierbares Quantenmaschinenlernen, das moderne neuronale Architekturen nutzt.
English
Quantum Support Vector Machines face scalability challenges due to high-dimensional quantum states and hardware limitations. We propose an embedding-aware quantum-classical pipeline combining class-balanced k-means distillation with pretrained Vision Transformer embeddings. Our key finding: ViT embeddings uniquely enable quantum advantage, achieving up to 8.02% accuracy improvements over classical SVMs on Fashion-MNIST and 4.42% on MNIST, while CNN features show performance degradation. Using 16-qubit tensor network simulation via cuTensorNet, we provide the first systematic evidence that quantum kernel advantage depends critically on embedding choice, revealing fundamental synergy between transformer attention and quantum feature spaces. This provides a practical pathway for scalable quantum machine learning that leverages modern neural architectures.
PDF42August 5, 2025