확장 가능한 양자 기계 학습을 위한 임베딩 인식 양자-클래식 SVM
Embedding-Aware Quantum-Classical SVMs for Scalable Quantum Machine Learning
July 28, 2025
저자: Sebastián Andrés Cajas Ordóñez, Luis Fernando Torres Torres, Mario Bifulco, Carlos Andrés Durán, Cristian Bosch, Ricardo Simón Carbajo
cs.AI
초록
양자 서포트 벡터 머신은 고차원 양자 상태와 하드웨어적 한계로 인해 확장성 문제에 직면해 있습니다. 본 연구에서는 클래스 균형 k-평균 증류와 사전 훈련된 Vision Transformer 임베딩을 결합한 임베딩 인식 양자-클래식 파이프라인을 제안합니다. 주요 발견으로는, ViT 임베딩이 양자 이점을 독특하게 가능하게 하여 Fashion-MNIST에서 클래식 SVM 대비 최대 8.02%, MNIST에서 4.42%의 정확도 향상을 달성한 반면, CNN 특징은 성능 저하를 보였습니다. cuTensorNet을 통한 16-큐비트 텐서 네트워크 시뮬레이션을 사용하여, 양자 커널 이점이 임베딩 선택에 크게 의존한다는 첫 번째 체계적인 증거를 제공하며, 트랜스포머 어텐션과 양자 특징 공간 간의 근본적인 시너지를 밝혀냈습니다. 이는 현대 신경망 아키텍처를 활용한 확장 가능한 양자 머신 러닝을 위한 실용적인 경로를 제시합니다.
English
Quantum Support Vector Machines face scalability challenges due to
high-dimensional quantum states and hardware limitations. We propose an
embedding-aware quantum-classical pipeline combining class-balanced k-means
distillation with pretrained Vision Transformer embeddings. Our key finding:
ViT embeddings uniquely enable quantum advantage, achieving up to 8.02%
accuracy improvements over classical SVMs on Fashion-MNIST and 4.42% on MNIST,
while CNN features show performance degradation. Using 16-qubit tensor network
simulation via cuTensorNet, we provide the first systematic evidence that
quantum kernel advantage depends critically on embedding choice, revealing
fundamental synergy between transformer attention and quantum feature spaces.
This provides a practical pathway for scalable quantum machine learning that
leverages modern neural architectures.