埋め込み対応型量子古典SVMによるスケーラブルな量子機械学習
Embedding-Aware Quantum-Classical SVMs for Scalable Quantum Machine Learning
July 28, 2025
著者: Sebastián Andrés Cajas Ordóñez, Luis Fernando Torres Torres, Mario Bifulco, Carlos Andrés Durán, Cristian Bosch, Ricardo Simón Carbajo
cs.AI
要旨
量子サポートベクターマシンは、高次元の量子状態とハードウェアの制約によりスケーラビリティの課題に直面しています。本研究では、クラスバランス型k-means蒸留と事前学習済みVision Transformer(ViT)埋め込みを組み合わせた埋め込み対応型量子-古典パイプラインを提案します。主な発見として、ViT埋め込みは量子優位性を実現する唯一の手法であり、Fashion-MNISTでは古典的SVMに対して最大8.02%、MNISTでは4.42%の精度向上を達成しました。一方、CNN特徴量では性能の低下が見られました。cuTensorNetを用いた16量子ビットのテンソルネットワークシミュレーションにより、量子カーネルの優位性が埋め込みの選択に大きく依存することを初めて体系的に実証し、トランスフォーマーのアテンションと量子特徴空間の間に根本的な相乗効果があることを明らかにしました。これは、現代のニューラルネットワークアーキテクチャを活用したスケーラブルな量子機械学習への実用的な道筋を示すものです。
English
Quantum Support Vector Machines face scalability challenges due to
high-dimensional quantum states and hardware limitations. We propose an
embedding-aware quantum-classical pipeline combining class-balanced k-means
distillation with pretrained Vision Transformer embeddings. Our key finding:
ViT embeddings uniquely enable quantum advantage, achieving up to 8.02%
accuracy improvements over classical SVMs on Fashion-MNIST and 4.42% on MNIST,
while CNN features show performance degradation. Using 16-qubit tensor network
simulation via cuTensorNet, we provide the first systematic evidence that
quantum kernel advantage depends critically on embedding choice, revealing
fundamental synergy between transformer attention and quantum feature spaces.
This provides a practical pathway for scalable quantum machine learning that
leverages modern neural architectures.