Interpolation entre images avec des modèles de diffusion
Interpolating between Images with Diffusion Models
July 24, 2023
Auteurs: Clinton J. Wang, Polina Golland
cs.AI
Résumé
Une frontière peu explorée de la génération et de l'édition d'images est la tâche d'interpolation entre deux images d'entrée, une fonctionnalité absente de tous les pipelines de génération d'images actuellement déployés. Nous soutenons qu'une telle fonctionnalité peut élargir les applications créatives de ces modèles, et proposons une méthode d'interpolation en zero-shot utilisant des modèles de diffusion latente. Nous appliquons l'interpolation dans l'espace latent à une séquence de niveaux de bruit décroissants, puis effectuons un débruitage conditionné sur des embeddings textuels interpolés dérivés de l'inversion textuelle et (optionnellement) des poses de sujets. Pour une plus grande cohérence, ou pour spécifier des critères supplémentaires, nous pouvons générer plusieurs candidats et utiliser CLIP pour sélectionner l'image de la plus haute qualité. Nous obtenons des interpolations convaincantes à travers diverses poses de sujets, styles d'images et contenus d'images, et montrons que les métriques quantitatives standard telles que le FID sont insuffisantes pour mesurer la qualité d'une interpolation. Le code et les données sont disponibles à l'adresse https://clintonjwang.github.io/interpolation.
English
One little-explored frontier of image generation and editing is the task of
interpolating between two input images, a feature missing from all currently
deployed image generation pipelines. We argue that such a feature can expand
the creative applications of such models, and propose a method for zero-shot
interpolation using latent diffusion models. We apply interpolation in the
latent space at a sequence of decreasing noise levels, then perform denoising
conditioned on interpolated text embeddings derived from textual inversion and
(optionally) subject poses. For greater consistency, or to specify additional
criteria, we can generate several candidates and use CLIP to select the highest
quality image. We obtain convincing interpolations across diverse subject
poses, image styles, and image content, and show that standard quantitative
metrics such as FID are insufficient to measure the quality of an
interpolation. Code and data are available at
https://clintonjwang.github.io/interpolation.