SVM Quantistico-Classiche con Consapevolezza degli Embedding per l'Apprendimento Automatico Quantistico Scalabile
Embedding-Aware Quantum-Classical SVMs for Scalable Quantum Machine Learning
July 28, 2025
Autori: Sebastián Andrés Cajas Ordóñez, Luis Fernando Torres Torres, Mario Bifulco, Carlos Andrés Durán, Cristian Bosch, Ricardo Simón Carbajo
cs.AI
Abstract
Le Quantum Support Vector Machines affrontano sfide di scalabilità a causa degli stati quantistici ad alta dimensionalità e delle limitazioni hardware. Proponiamo una pipeline quantistico-classica consapevole dell'embedding, che combina la distillazione k-means bilanciata per classi con gli embedding preaddestrati di Vision Transformer. La nostra scoperta chiave: gli embedding ViT abilitano in modo unico un vantaggio quantistico, ottenendo miglioramenti di accuratezza fino all'8,02% rispetto alle SVM classiche su Fashion-MNIST e del 4,42% su MNIST, mentre le feature CNN mostrano un degrado delle prestazioni. Utilizzando una simulazione di rete tensoriale a 16 qubit tramite cuTensorNet, forniamo la prima evidenza sistematica che il vantaggio del kernel quantistico dipende in modo critico dalla scelta dell'embedding, rivelando una sinergia fondamentale tra l'attenzione dei transformer e gli spazi delle feature quantistiche. Questo fornisce un percorso pratico per l'apprendimento automatico quantistico scalabile che sfrutta le moderne architetture neurali.
English
Quantum Support Vector Machines face scalability challenges due to
high-dimensional quantum states and hardware limitations. We propose an
embedding-aware quantum-classical pipeline combining class-balanced k-means
distillation with pretrained Vision Transformer embeddings. Our key finding:
ViT embeddings uniquely enable quantum advantage, achieving up to 8.02%
accuracy improvements over classical SVMs on Fashion-MNIST and 4.42% on MNIST,
while CNN features show performance degradation. Using 16-qubit tensor network
simulation via cuTensorNet, we provide the first systematic evidence that
quantum kernel advantage depends critically on embedding choice, revealing
fundamental synergy between transformer attention and quantum feature spaces.
This provides a practical pathway for scalable quantum machine learning that
leverages modern neural architectures.