SVMs Quântico-Clássicos com Consciência de Embedding para Aprendizado de Máquina Quântico Escalável
Embedding-Aware Quantum-Classical SVMs for Scalable Quantum Machine Learning
July 28, 2025
Autores: Sebastián Andrés Cajas Ordóñez, Luis Fernando Torres Torres, Mario Bifulco, Carlos Andrés Durán, Cristian Bosch, Ricardo Simón Carbajo
cs.AI
Resumo
As Máquinas de Vetores de Suporte Quânticas enfrentam desafios de escalabilidade devido a estados quânticos de alta dimensionalidade e limitações de hardware. Propomos um pipeline quântico-clássico consciente de embeddings, combinando destilação k-means balanceada por classe com embeddings pré-treinados de Vision Transformers. Nossa principal descoberta: embeddings de ViT permitem de forma única vantagem quântica, alcançando melhorias de até 8,02% na acurácia sobre SVMs clássicos no Fashion-MNIST e 4,42% no MNIST, enquanto características de CNNs mostram degradação de desempenho. Utilizando simulação de rede tensorial de 16 qubits via cuTensorNet, fornecemos a primeira evidência sistemática de que a vantagem do kernel quântico depende criticamente da escolha do embedding, revelando uma sinergia fundamental entre a atenção dos transformers e os espaços de características quânticos. Isso oferece um caminho prático para o aprendizado de máquina quântico escalável que aproveita arquiteturas neurais modernas.
English
Quantum Support Vector Machines face scalability challenges due to
high-dimensional quantum states and hardware limitations. We propose an
embedding-aware quantum-classical pipeline combining class-balanced k-means
distillation with pretrained Vision Transformer embeddings. Our key finding:
ViT embeddings uniquely enable quantum advantage, achieving up to 8.02%
accuracy improvements over classical SVMs on Fashion-MNIST and 4.42% on MNIST,
while CNN features show performance degradation. Using 16-qubit tensor network
simulation via cuTensorNet, we provide the first systematic evidence that
quantum kernel advantage depends critically on embedding choice, revealing
fundamental synergy between transformer attention and quantum feature spaces.
This provides a practical pathway for scalable quantum machine learning that
leverages modern neural architectures.