Quanten-Denoising-Diffusionsmodelle
Quantum Denoising Diffusion Models
January 13, 2024
Autoren: Michael Kölle, Gerhard Stenzel, Jonas Stein, Sebastian Zielinski, Björn Ommer, Claudia Linnhoff-Popien
cs.AI
Zusammenfassung
In den letzten Jahren haben maschinelle Lernmodelle wie DALL-E, Craiyon und Stable Diffusion erhebliche Aufmerksamkeit für ihre Fähigkeit erlangt, hochauflösende Bilder aus prägnanten Beschreibungen zu generieren. Gleichzeitig zeigt das Quantencomputing vielversprechende Fortschritte, insbesondere im Bereich des Quantenmaschinenlernens, das Quantenmechanik nutzt, um den steigenden Rechenanforderungen traditioneller maschineller Lernalgorithmen gerecht zu werden. Dieses Papier untersucht die Integration von Quantenmaschinenlernen und variablen Quantenschaltkreisen, um die Effizienz diffusionsbasierter Bildgenerierungsmodelle zu steigern. Insbesondere gehen wir auf zwei Herausforderungen klassischer Diffusionsmodelle ein: ihre geringe Abtastgeschwindigkeit und den umfangreichen Parameterbedarf. Wir stellen zwei Quantendiffusionsmodelle vor und vergleichen ihre Fähigkeiten mit ihren klassischen Gegenstücken anhand von MNIST-Ziffern, Fashion MNIST und CIFAR-10. Unsere Modelle übertreffen die klassischen Modelle mit ähnlichen Parameteranzahlen in Bezug auf die Leistungsmetriken FID, SSIM und PSNR. Darüber hinaus führen wir eine Einheitliche Einzelabtastarchitektur für Konsistenzmodelle ein, die den Diffusionsprozess in einem einzigen Schritt kombiniert und damit eine schnelle Einzelschritt-Bildgenerierung ermöglicht.
English
In recent years, machine learning models like DALL-E, Craiyon, and Stable
Diffusion have gained significant attention for their ability to generate
high-resolution images from concise descriptions. Concurrently, quantum
computing is showing promising advances, especially with quantum machine
learning which capitalizes on quantum mechanics to meet the increasing
computational requirements of traditional machine learning algorithms. This
paper explores the integration of quantum machine learning and variational
quantum circuits to augment the efficacy of diffusion-based image generation
models. Specifically, we address two challenges of classical diffusion models:
their low sampling speed and the extensive parameter requirements. We introduce
two quantum diffusion models and benchmark their capabilities against their
classical counterparts using MNIST digits, Fashion MNIST, and CIFAR-10. Our
models surpass the classical models with similar parameter counts in terms of
performance metrics FID, SSIM, and PSNR. Moreover, we introduce a consistency
model unitary single sampling architecture that combines the diffusion
procedure into a single step, enabling a fast one-step image generation.