Квантово-классические SVM с учетом вложений для масштабируемого квантового машинного обучения
Embedding-Aware Quantum-Classical SVMs for Scalable Quantum Machine Learning
July 28, 2025
Авторы: Sebastián Andrés Cajas Ordóñez, Luis Fernando Torres Torres, Mario Bifulco, Carlos Andrés Durán, Cristian Bosch, Ricardo Simón Carbajo
cs.AI
Аннотация
Квантовые машины опорных векторов сталкиваются с проблемами масштабируемости из-за высокоразмерных квантовых состояний и ограничений аппаратного обеспечения. Мы предлагаем квантово-классический конвейер, учитывающий встраивание, который сочетает сбалансированную по классам дистилляцию методом k-средних с предварительно обученными вложениями Vision Transformer. Наше ключевое открытие: вложения ViT уникальным образом обеспечивают квантовое преимущество, достигая улучшения точности до 8,02% по сравнению с классическими машинами опорных векторов на Fashion-MNIST и 4,42% на MNIST, в то время как признаки CNN демонстрируют снижение производительности. Используя 16-кубитное моделирование тензорных сетей через cuTensorNet, мы впервые предоставляем систематические доказательства того, что квантовое преимущество ядра критически зависит от выбора вложения, раскрывая фундаментальную синергию между механизмом внимания трансформеров и квантовыми пространствами признаков. Это открывает практический путь для масштабируемого квантового машинного обучения, использующего современные нейронные архитектуры.
English
Quantum Support Vector Machines face scalability challenges due to
high-dimensional quantum states and hardware limitations. We propose an
embedding-aware quantum-classical pipeline combining class-balanced k-means
distillation with pretrained Vision Transformer embeddings. Our key finding:
ViT embeddings uniquely enable quantum advantage, achieving up to 8.02%
accuracy improvements over classical SVMs on Fashion-MNIST and 4.42% on MNIST,
while CNN features show performance degradation. Using 16-qubit tensor network
simulation via cuTensorNet, we provide the first systematic evidence that
quantum kernel advantage depends critically on embedding choice, revealing
fundamental synergy between transformer attention and quantum feature spaces.
This provides a practical pathway for scalable quantum machine learning that
leverages modern neural architectures.